Blog

  • Les habitants de Vilseck, en Allemagne, craignent que Trump retire 5 000 soldats américains

    Les habitants de Vilseck, en Allemagne, craignent que Trump retire 5 000 soldats américains

    Le président Trump La menace de retrait des troupes ébranle les habitants d’une petite ville bavaroise qui dépendent du personnel militaire américain et de leurs familles pour leurs revenus et leurs amitiés nouées au fil des décennies.

    (Crédit image : Lisi Niesner)

    Aller à la source originale

  • Die Einwohner von Vilseck (Deutschland) befürchten, dass Trump 5.000 US-Soldaten abziehen könnte

    Die Einwohner von Vilseck (Deutschland) befürchten, dass Trump 5.000 US-Soldaten abziehen könnte

    Präsident Trumps Drohung mit einem Truppenabzug erschüttert die Bewohner einer kleinen bayerischen Stadt, deren Einkommen und über Jahrzehnte aufgebaute Freundschaften auf US-Militärpersonal und ihre Familien angewiesen sind.

    (Bildnachweis: Lisi Niesner)

    Zur Originalquelle gehen

  • The townspeople of Vilseck, Germany, worry that Trump may pull out 5,000 U.S. troops

    The townspeople of Vilseck, Germany, worry that Trump may pull out 5,000 U.S. troops

    President Trump’s troop withdrawal threat rattles residents of a small Bavarian town reliant on U.S. military personnel and their families for both income and friendships built over decades.

    (Image credit: Lisi Niesner)

    Go to Original Source

  • Relever la barre : qualité, responsabilité partagée et avenir du programme de bug bounty de GitHub

    La communauté de recherche en sécurité est l’un des plus grands atouts de GitHub. Chaque année, des chercheurs du monde entier nous aident à trouver et à corriger les vulnérabilités, rendant ainsi la plateforme plus sûre pour plus de 180 millions de développeurs. Notre programme de bug bounty existe parce que nous pensons que la collaboration avec des chercheurs externes est l’un des moyens les plus efficaces d’améliorer la sécurité, et nous y restons profondément attachés.

    Mais comme tout programme de bug bounty, nous nous adaptons à un paysage changeant. Nous souhaitons partager ce que nous constatons, ce que nous faisons à ce sujet et notre vision des limites de sécurité d’une plateforme comme GitHub.

    Le problème du volume

    Au cours de l’année écoulée, le volume de soumissions dans l’ensemble du secteur a considérablement augmenté. De nouveaux outils, notamment l’IA, ont abaissé les barrières à l’entrée de la recherche en matière de sécurité, ce qui constitue à bien des égards une évolution positive. Plus de personnes explorant les surfaces d’attaque signifie plus d’opportunités de trouver de vrais problèmes.

    Cependant, parallèlement à l’augmentation du nombre de rapports légitimes, nous avons constaté une forte augmentation des soumissions qui ne démontrent pas d’impact réel sur la sécurité. Il s’agit notamment de rapports sans preuve de concept, de scénarios d’attaque théoriques qui ne résistent pas à un examen minutieux et de conclusions déjà couvertes par notre liste d’inéligibles publiée. Ce n’est pas unique à GitHub. Les programmes de l’ensemble du secteur sont aux prises avec le même défi, et certains ont été complètement fermés.

    Nous ne voulons pas aller dans cette direction. Au lieu de cela, nous souhaitons investir dans l’amélioration de notre programme.

    Qu’est-ce qui fait une soumission solide

    Nous élevons la barre en ce qui concerne ce que nous considérons comme une soumission complète. À l’avenir, les rapports seront évalués plus strictement en fonction des critères suivants :

    • Une preuve de concept fonctionnelle avec un impact démontré sur la sécurité. Montrez-nous l’impact, ne vous contentez pas de le décrire. Que pourrait réellement réaliser un attaquant ? Nous avons besoin d’une preuve de concept fonctionnelle qui démontre une exploitation réelle et un impact concret sur la sécurité. Montrez-nous la frontière qui peut être franchie, et pas seulement celle qui existe théoriquement. Si votre rapport indique “cela pourrait conduire à…” mais n’indique pas que c’est le cas c’est le cas, il est incomplet.
    • Conscience de la portée et des résultats non éligibles. Avant de soumettre, consultez notre portée et liste des résultats non éligibles. Les rapports couvrant des catégories connues non éligibles (configuration DMARC/SPF/DKIM, énumération des utilisateurs, en-têtes de sécurité manquants sans chemin d’attaque démontré, et autres) seront fermés comme non applicables, ce qui peut avoir un impact sur votre signal HackerOne et votre réputation.
    • Validation avant soumission. Quels que soient les outils que vous utilisez (scanners, analyse statique, assistants IA), vous devez valider le résultat avant de soumettre. Un faux positif examiné manuellement est détecté avant qu’il ne fasse perdre du temps à quiconque. Celui qui n’en a pas, c’est juste le bruit.

    Nous accueillons l’IA dans la recherche sur la sécurité

    Nous voulons être explicites à ce sujet : nous n’avons aucun problème avec le fait que les chercheurs utilisent des outils d’IA. L’IA est un multiplicateur de force et nous nous attendons à ce qu’elle joue un rôle croissant dans la recherche sur la sécurité. Nous utilisons l’IA dans nos propres programmes de sécurité interne, et nous constatons que les meilleurs chercheurs externes font de même. Nous nous en réjouissons.

    Ce dont nous avons besoin, c’est de la même norme à laquelle nous nous sommes toujours attendus : la validation. Une découverte assistée par l’IA qui a été vérifiée, reproduite et soumise avec une preuve de concept fonctionnelle est une excellente soumission. Un résultat non validé soumis tel quel sans reproduction ni impact démontré ne l’est pas. Ce n’est pas une nouvelle norme. C’est la même norme que nous appliquons à la sortie du scanner, à l’analyse statique ou à tout autre outil. Le chercheur humain est responsable de l’exactitude de la soumission.

    Nous demandons également aux chercheurs de maintenir des rapports concis et structurés. Un rapport solide comporte trois éléments : un bref résumé du problème, des étapes claires à reproduire avec des preuves à l’appui (captures d’écran, requêtes HTTP, sortie du terminal) et une déclaration d’impact expliquant ce qu’un attaquant peut réellement réaliser. C’est ça. Les rapports verbeux tels que les récits théoriques de plusieurs pages, le contexte d’arrière-plan reposé ou les éléments de remplissage générés par l’IA ralentissent le tri car les découvertes réelles sont enterrées. Plus votre rapport est clair et direct, plus vite nous pouvons y donner suite.

    Les outils n’ont pas d’importance. La qualité du travail oui.

    Comprendre le modèle de sécurité de GitHub : responsabilité partagée

    Un modèle que nous observons fréquemment mérite sa propre discussion. De nombreux rapports décrivent des scénarios dans lesquels un utilisateur interagit avec du contenu contrôlé par un attaquant (un référentiel malveillant, un problème contrefait, un code non fiable) et subit un résultat indésirable. Ces rapports sont souvent bien rédigés et leurs observations sont techniquement précises, mais ils ne comprennent pas où se situe la limite de sécurité.

    Nous investissons massivement dans des systèmes et des équipes dédiés à la détection et au traitement des contenus malveillants sur l’ensemble de la plate-forme, de l’analyse automatisée à l’examen manuel. Cela dit, GitHub fonctionne sur un modèle de responsabilité partagée. Les utilisateurs sont responsables de :

    • Choisir les référentiels, les problèmes et le code auxquels ils font confiance. GitHub héberge plus de 600 millions de référentiels. Tous ne sont pas bénins. Les utilisateurs sont censés faire preuve de jugement sur les objets avec lesquels ils interagissent.
    • Examiner le contenu avant de l’exécuter ou d’interagir avec celui-ci. Cela s’applique au code, aux scripts, aux flux de travail et à tout autre contenu exécutable.
    • Comprendre que cloner un référentiel signifie choisir de faire confiance à ce code. Les hooks Git, les scripts de build et autres automatisations au niveau du référentiel s’exécutent parce que l’utilisateur a choisi d’extraire ce référentiel.
    • Configurer son propre environnement en toute sécurité. La gestion des jetons, le stockage des identifiants et les paramètres de sécurité locaux relèvent de la responsabilité de l’utilisateur.

    Lorsqu’une « attaque » oblige la victime à rechercher activement et à interagir avec un contenu contrôlé par l’attaquant (clonage d’un dépôt malveillant, demande à un outil d’IA d’analyser du code non fiable, ouverture d’un fichier contrefait), la limite de sécurité est la décision de l’utilisateur de faire confiance à ce contenu. Ces scénarios ne représentent généralement pas un contournement des contrôles de sécurité de GitHub.

    Exemples courants

    Pour aider les chercheurs à calibrer, voici les modèles que nous observons régulièrement et qui relèvent d’une responsabilité partagée :

    Scénario Pourquoi c’est une responsabilité partagée
    Injection rapide via le contenu que l’utilisateur a choisi de transmettre à un outil d’IA L’utilisateur a décidé de lui faire confiance content
    Git hooke ou filtre l’exécution de code dans un dépôt que l’utilisateur a extrait Voici comment Git fonctionne par conception
    Contenu malveillant dans un référentiel cloné par l’utilisateur Le clonage est un acte de confiance
    LLM produit une sortie inattendue lors du traitement d’entrées non fiables L’utilisateur a choisi pour fournir cette contribution

    La recherche dans ces domaines reste extrêmement précieuse. Si vous pensez avoir trouvé un angle mort dans nos défenses (un moyen de contourner un contrôle de sécurité réel qui affecte les utilisateurs sans les obliger à faire activement confiance à un contenu malveillant), c’est exactement ce dont nous voulons entendre parler. Ces conclusions font partie des soumissions les plus marquantes que nous recevons. Et si vous rencontrez du contenu qui enfreint nos conditions d’utilisation, veuillez signalez-le.

    Ce que cela signifie pour les chercheurs

    Si vous soumettez déjà des recherches de qualité, merci. Rien ne change pour vous, sauf des temps de réponse plus rapides grâce à la réduction du bruit de la file d’attente.

    Si vous débutez avec le bug bounty, bienvenue ! Prenez quelques minutes pour lire notre portée, examiner la liste des éléments non éligibles et investir dans une preuve de concept fonctionnelle avant de soumettre. Les soumissions de qualité des nouveaux chercheurs sont toujours appréciées.

    Si vous avez donné la priorité au volume, nous vous encourageons à privilégier la profondeur. Une découverte bien documentée et validée vaut plus de 10 découvertes spéculatives, tant en termes de primes que de réputation. Les chercheurs qui gagnent le plus grâce à notre programme sont ceux qui vont en profondeur.

    Modifications dans la façon dont nous récompensons les découvertes à faible risque

    Toutes les soumissions valides ne représentent pas un risque de sécurité significatif. Certains rapports identifient des opportunités de renforcement ou des lacunes dans la documentation qui, bien que non exploitables, conduisent néanmoins à des améliorations que nous choisissons d’apporter. Nous apprécions ce travail.

    À l’avenir, nous mettrons à jour la façon dont nous traitons ces cas. Les soumissions qui ne démontrent pas d’impact significatif sur la sécurité mais qui aboutissent à un correctif de code ou de documentation seront reconnues avec un cadeau GitHub plutôt qu’avec une prime. Cela nous permet de reconnaître la contribution tout en concentrant nos ressources Bounty sur les résultats qui ont le plus grand impact sur la sécurité de la plateforme.

    Nous préférons voir les chercheurs investir leur temps dans des recherches plus approfondies et à fort impact et être rémunérés en conséquence plutôt que d’optimiser le volume de résultats à faible risque.

    Regard vers l’avenir

    Nous nous engageons à faire du programme de bug bounty de GitHub l’un des meilleurs du secteur, pour les chercheurs et pour la sécurité de la plateforme. Cela signifie un tri plus rapide, une communication plus claire et la garantie que les résultats valides reçoivent l’attention et la compensation qu’ils méritent. L’augmentation des normes de qualité fait partie de cet investissement.

    Les chercheurs en sécurité rendent GitHub plus sûr pour tous les développeurs qui en dépendent. Ce travail est important et nous ne le tenons pas pour acquis.

    Bon piratage ! 🚀

    Le message Relever la barre : qualité, responsabilité partagée et avenir du programme de primes aux bogues de GitHub est apparu en premier sur Le GitHub Blog.

    Aller à la source originale

  • Die Messlatte höher legen: Qualität, gemeinsame Verantwortung und die Zukunft des Bug-Bounty-Programms von GitHub

    Die Sicherheitsforschungs-Community ist einer der größten Vermögenswerte von GitHub. Jedes Jahr helfen uns Forscher aus der ganzen Welt dabei, Schwachstellen zu finden und zu beheben und so die Plattform für über 180 Millionen Entwickler sicherer zu machen. Unser Bug-Bounty-Programm gibt es, weil wir davon überzeugt sind, dass die Zusammenarbeit mit externen Forschern eine der effektivsten Möglichkeiten zur Verbesserung der Sicherheit ist, und wir fühlen uns diesem Ziel weiterhin verpflichtet.

    Aber wie jedes Bug-Bounty-Programm passen wir uns einer sich verändernden Landschaft an. Wir möchten mitteilen, was wir sehen, was wir dagegen tun und wie wir über die Sicherheitsgrenzen einer Plattform wie GitHub denken.

    Das Volumenproblem

    Im vergangenen Jahr ist das Einreichungsvolumen in der gesamten Branche deutlich gestiegen. Neue Tools, einschließlich KI, haben die Eintrittsbarriere für die Sicherheitsforschung gesenkt, was in vielerlei Hinsicht eine positive Entwicklung ist. Mehr Menschen, die Angriffsflächen erkunden, bedeuten mehr Möglichkeiten, echte Probleme zu finden.

    Allerdings haben wir neben der Zunahme legitimer Berichte auch einen starken Anstieg an Einsendungen beobachtet, die keine echten Sicherheitsauswirkungen nachweisen. Dazu gehören Berichte ohne Proof of Concept, theoretische Angriffsszenarien, die einer Prüfung nicht standhalten, und Erkenntnisse, die bereits in unserer veröffentlichten Liste der nicht zulässigen Unternehmen abgedeckt sind. Dies gilt nicht nur für GitHub. Programme in der gesamten Branche kämpfen mit der gleichen Herausforderung, und einige wurden ganz eingestellt.

    Wir wollen nicht in diese Richtung gehen. Stattdessen möchten wir in die Verbesserung unseres Programms investieren.

    Was eine starke Einreichung ausmacht

    Wir legen die Messlatte für das, was wir als vollständige Einreichung betrachten, höher. Künftig werden Berichte strenger anhand dieser Kriterien bewertet:

    • Ein funktionierender Proof of Concept mit nachgewiesenen Auswirkungen auf die Sicherheit. Zeigen Sie uns die Auswirkungen, beschreiben Sie sie nicht nur. Was könnte ein Angreifer eigentlich erreichen? Wir brauchen einen funktionierenden Proof of Concept, der die tatsächliche Ausnutzung und konkrete Auswirkungen auf die Sicherheit nachweist. Zeigen Sie uns die Grenze, die überschritten werden kann, und nicht nur, dass es eine theoretisch gibt. Wenn in Ihrem Bericht steht „Dies könnte zu … führen“, aber nicht angegeben wird, dass dies der Fall ist, ist er unvollständig.
    • Bewusstsein über den Umfang und die unzulässigen Ergebnisse. Überprüfen Sie vor dem Einreichen unseren Umfang und Liste der nicht zulässigen Ergebnisse. Berichte zu bekannten nicht zulässigen Kategorien (DMARC/SPF/DKIM-Konfiguration, Benutzeraufzählung, fehlende Sicherheitsheader ohne nachgewiesenen Angriffspfad und andere) werden als „Nicht anwendbar“ geschlossen, was sich auf Ihr HackerOne-Signal und Ihren Ruf auswirken kann.
    • Validierung vor der Übermittlung. Unabhängig davon, welche Tools Sie verwenden (Scanner, statische Analyse, KI-Assistenten), müssen Sie die Ausgabe vor der Übermittlung validieren. Ein falsch positives Ergebnis, das manuell überprüft wurde, wird erkannt, bevor es Zeitverschwendung für irgendjemanden darstellt. Eines, bei dem das nicht der Fall ist, ist nur Lärm.

    Wir begrüßen KI in der Sicherheitsforschung

    Wir möchten dies ausdrücklich betonen: Wir haben kein Problem damit, dass Forscher KI-Tools verwenden. KI ist ein Kraftmultiplikator und wir gehen davon aus, dass sie in der Sicherheitsforschung eine zunehmende Rolle spielen wird. Wir nutzen KI in unseren eigenen internen Sicherheitsprogrammen und wir sehen, dass die besten externen Forscher dasselbe tun. Wir begrüßen es.

    Was wir brauchen, ist derselbe Standard, den wir immer erwartet haben: Validierung. Ein KI-gestützter Befund, der verifiziert, reproduziert und mit einem funktionierenden Machbarkeitsnachweis eingereicht wurde, ist eine großartige Einreichung. Eine nicht validierte Ausgabe, die im Ist-Zustand ohne Vervielfältigung oder nachgewiesene Auswirkung eingereicht wird, gilt nicht. Dies ist kein neuer Standard. Es ist derselbe Standard, den wir auf die Scannerausgabe, die statische Analyse und jedes andere Tool anwenden. Der menschliche Forscher ist für die Richtigkeit der Einreichung verantwortlich.

    Wir bitten die Forscher außerdem, die Berichte prägnant und strukturiert zu halten. Ein aussagekräftiger Bericht besteht aus drei Dingen: einer kurzen Zusammenfassung des Problems, klaren Schritten zur Reproduktion mit unterstützenden Beweisen (Screenshots, HTTP-Anfragen, Terminalausgabe) und einer Auswirkungserklärung, die erklärt, was ein Angreifer tatsächlich erreichen kann. Das ist es. Ausführliche Berichte wie mehrseitige theoretische Erzählungen, ausgeruhter Hintergrundkontext oder KI-generierte Füllmaterialien verlangsamen die Triage, da der eigentliche Befund untergeht. Je klarer und direkter Ihr Bericht, desto schneller können wir darauf reagieren.

    Die Werkzeuge spielen keine Rolle. Die Qualität der Arbeit stimmt.

    Das Sicherheitsmodell von GitHub verstehen: Geteilte Verantwortung

    Ein Muster, das wir häufig beobachten, verdient eine eigene Diskussion. Viele Berichte beschreiben Szenarien, in denen ein Benutzer mit vom Angreifer kontrollierten Inhalten interagiert (ein bösartiges Repository, ein manipuliertes Problem, nicht vertrauenswürdiger Code) und ein unerwünschtes Ergebnis erlebt. Diese Berichte sind oft gut geschrieben und in ihren Beobachtungen technisch korrekt, aber sie verstehen falsch, wo die Sicherheitsgrenze liegt.

    Wir investieren stark in Systeme und Teams, die sich der Erkennung und Handhabung bösartiger Inhalte auf der gesamten Plattform widmen, vom automatisierten Scannen bis zur manuellen Überprüfung. Allerdings arbeitet GitHub nach einem Modell der geteilten Verantwortung. Benutzer sind verantwortlich für:

    • Auswählen, welchen Repositories, Problemen und Codes sie vertrauen. GitHub hostet über 600 Millionen Repositories. Nicht alle davon sind harmlos. Von Benutzern wird erwartet, dass sie ein Urteil darüber fällen, womit sie interagieren.
    • Überprüfen von Inhalten vor der Ausführung oder Interaktion mit ihnen. Dies gilt für Code, Skripte, Workflows und alle anderen ausführbaren Inhalte.
    • Zu verstehen, dass das Klonen eines Repositorys die Entscheidung bedeutet, diesem Code zu vertrauen. Git-Hooks, Build-Skripts und andere Automatisierungen auf Repository-Ebene werden ausgeführt, weil der Benutzer sich entschieden hat, dieses Repository auszuchecken.
    • Die eigene Umgebung sicher konfigurieren. Token-Verwaltung, Anmeldeinformationsspeicherung und lokale Sicherheitseinstellungen liegen in der Verantwortung des Benutzers.

    Wenn ein „Angriff“ erfordert, dass das Opfer aktiv nach vom Angreifer kontrollierten Inhalten sucht und mit ihnen interagiert (ein bösartiges Repo klonen, ein KI-Tool mit der Analyse nicht vertrauenswürdigen Codes beauftragen, eine manipulierte Datei öffnen), ist die Sicherheitsgrenze die Entscheidung des Benutzers, diesem Inhalt zu vertrauen. Diese Szenarien stellen im Allgemeinen keine Umgehung der Sicherheitskontrollen von GitHub dar.

    Häufige Beispiele

    Um Forschern bei der Kalibrierung zu helfen, sehen wir hier regelmäßig Muster, die in die gemeinsame Verantwortung fallen:

    Szenario Warum es geteilte Verantwortung ist
    Sofortige Injektion über Inhalte, die der Benutzer ausgewählt hat, um sie einem KI-Tool zuzuführen Der Benutzer hat beschlossen, darauf zu vertrauen Inhalt
    Git-Hooks oder Filter, die Code in einem Repository ausführen, das der Benutzer ausgecheckt hat So funktioniert Git von Natur aus
    Schädliche Inhalte in einem Repository, das der Benutzer geklont hat Klonen ist ein Akt des Vertrauens
    LLM erzeugt unerwartete Ausgaben, wenn nicht vertrauenswürdige Eingaben verarbeitet werden Der Benutzer hat ausgewählt um diese Eingabe bereitzustellen

    Die Forschung in diesen Bereichen ist immer noch äußerst wertvoll. Wenn Sie glauben, einen blinden Fleck in unseren Abwehrmaßnahmen gefunden zu haben (eine Möglichkeit, eine tatsächliche Sicherheitskontrolle zu umgehen, die Benutzer betrifft, ohne von ihnen zu verlangen, dass sie schädlichen Inhalten aktiv vertrauen), dann möchten wir genau das hören. Diese Ergebnisse gehören zu den wirkungsvollsten Einsendungen, die wir erhalten. Und wenn Sie auf Inhalte stoßen, die gegen unsere Nutzungsbedingungen verstoßen, melden Sie diese bitte.

    Was das für Forscher bedeutet

    Wenn Sie bereits hochwertige Forschungsergebnisse einreichen, vielen Dank. Für Sie ändert sich nichts außer schnelleren Reaktionszeiten, da wir den Warteschlangenlärm reduzieren.

    Wenn Sie neu bei Bug Bounty sind, herzlich willkommen! Nehmen Sie sich ein paar Minuten Zeit, um unseren Leistungsumfang durchzulesen, die Liste der nicht förderfähigen Angebote zu überprüfen und vor der Einreichung in einen funktionierenden Proof of Concept zu investieren. Qualitativ hochwertige Beiträge von neuen Forschern werden immer geschätzt und geschätzt.

    Wenn Sie der Lautstärke Priorität eingeräumt haben, würden wir eine Verlagerung in Richtung Tiefe empfehlen. Eine gut recherchierte, validierte Entdeckung ist mehr wert als 10 spekulative Entdeckungen, sowohl in Bezug auf die Prämienauszahlung als auch auf den Ruf. Die Forscher, die am meisten mit unserem Programm verdienen, sind diejenigen, die in die Tiefe gehen.

    Änderungen an der Art und Weise, wie wir Ergebnisse mit geringem Risiko belohnen

    Nicht jede gültige Übermittlung stellt ein erhebliches Sicherheitsrisiko dar. In einigen Berichten werden Verbesserungsmöglichkeiten oder Dokumentationslücken identifiziert, die zwar nicht ausgenutzt werden können, aber dennoch zu Verbesserungen führen, die wir vornehmen möchten. Wir schätzen diese Arbeit.

    Zukünftig aktualisieren wir die Art und Weise, wie wir mit diesen Fällen umgehen. Einsendungen, die keine nennenswerten Auswirkungen auf die Sicherheit haben, aber dennoch zu einer Korrektur des Codes oder der Dokumentation führen, werden mit einem GitHub-Swag und nicht mit einer Prämienauszahlung gewürdigt. Dadurch können wir den Beitrag anerkennen und uns gleichzeitig mit unseren großzügigen Ressourcen auf die Erkenntnisse konzentrieren, die den größten Einfluss auf die Plattformsicherheit haben.

    Wir möchten lieber, dass Forscher ihre Zeit in tiefergehende, wirkungsvolle Forschung investieren und entsprechend entlohnt werden, als bei risikoarmen Erkenntnissen auf Volumen zu optimieren.

    Blick nach vorne

    Wir sind bestrebt, das Bug-Bounty-Programm von GitHub zu einem der besten der Branche zu machen, sowohl für Forscher als auch für die Sicherheit der Plattform. Das bedeutet eine schnellere Triage, eine klarere Kommunikation und die Sicherstellung, dass gültige Ergebnisse die Aufmerksamkeit und Vergütung erhalten, die sie verdienen. Die Erhöhung der Qualitätsstandards ist Teil dieser Investition.

    Sicherheitsforscher machen GitHub für jeden Entwickler, der darauf angewiesen ist, sicherer. Diese Arbeit ist wichtig und wir halten sie nicht für selbstverständlich.

    Viel Spaß beim Hacken! 🚀

    Der Beitrag Die Messlatte höher legen: Qualität, gemeinsame Verantwortung und die Zukunft des Bug-Bounty-Programms von GitHub erschien zuerst auf The GitHub Blog.

    Zur Originalquelle gehen

  • Raising the bar: Quality, shared responsibility, and the future of GitHub’s bug bounty program

    The security research community is one of GitHub’s greatest assets. Every year, researchers from around the world help us find and fix vulnerabilities, making the platform safer for over 180 million developers. Our bug bounty program exists because we believe that collaboration with external researchers is one of the most effective ways to improve security, and we remain deeply committed to it.

    But like every bug bounty program, we’re adapting to a changing landscape. We want to share what we’re seeing, what we’re doing about it, and how we think about the security boundaries of a platform like GitHub.

    The volume problem

    Over the past year, submission volume across the industry has grown significantly. New tools, including AI, have lowered the barrier to entry for security research, which in many ways is a positive development. More people exploring attack surfaces means more opportunities to find real issues.

    However, alongside the growth in legitimate reports, we’ve seen a sharp increase in submissions that don’t demonstrate real security impact. These include reports without a proof of concept, theoretical attack scenarios that don’t hold up under scrutiny, and findings that are already covered by our published ineligible list. This isn’t unique to GitHub. Programs across the industry are grappling with the same challenge, and some have shut down entirely.

    We don’t want to go that direction. Instead, we want to invest in making our program better.

    What makes a strong submission

    We’re raising the bar on what we consider a complete submission. Going forward, reports will be evaluated more strictly against these criteria:

    • A working proof of concept with demonstrated security impact. Show us the impact, don’t just describe it. What could an attacker actually achieve? We need a working proof of concept that demonstrates real exploitation and concrete security impact. Show us the boundary that can be crossed, not just that one theoretically exists. If your report says “this could lead to…” but doesn’t show that it does, it’s incomplete.
    • Awareness of scope and ineligible findings. Before submitting, review our scope and ineligible findings list. Reports covering known ineligible categories (DMARC/SPF/DKIM configuration, user enumeration, missing security headers without a demonstrated attack path, and others) will be closed as Not Applicable, which may impact your HackerOne Signal and reputation.
    • Validation before submission. No matter what tools you use (scanners, static analysis, AI assistants), you need to validate the output before submitting. A false positive that’s been manually reviewed is caught before it wastes anyone’s time. One that hasn’t is just noise.

    We welcome AI in security research

    We want to be explicit about this: we have no problem with researchers using AI tools. AI is a force multiplier, and we expect it to play an increasing role in security research. We use AI across our own internal security programs, and we’re seeing the best external researchers do the same. We welcome it.

    What we need is the same standard we’ve always expected: validation. An AI-assisted finding that’s been verified, reproduced, and submitted with a working proof of concept is a great submission. An unvalidated output submitted as-is without reproduction or demonstrated impact is not. This isn’t a new standard. It’s the same standard we apply to scanner output, static analysis, or any other tool. The human researcher is accountable for the accuracy of the submission.

    We’d also ask researchers to keep reports concise and structured. A strong report has three things: a short summary of the issue, clear steps to reproduce with supporting evidence (screenshots, HTTP requests, terminal output), and an impact statement explaining what an attacker can actually achieve. That’s it. Verbose reports such as multi-page theoretical narratives, rested background context, or AI-generated filler slow down triage because the actual finding gets buried. The clearer and more direct your report, the faster we can act on it.

    The tools don’t matter. The quality of the work does.

    Understanding GitHub’s security model: Shared responsibility

    One pattern we see frequently deserves its own discussion. Many reports describe scenarios where a user interacts with attacker-controlled content (a malicious repository, a crafted issue, untrusted code) and experiences an undesirable outcome. These reports are often well-written and technically accurate in their observations, but they misunderstand where the security boundary lies.

    We invest heavily in systems and teams dedicated to detecting and handling malicious content across the platform, from automated scanning to manual review. That said, GitHub operates on a shared responsibility model. Users are responsible for:

    • Choosing which repositories, issues, and code they trust. GitHub hosts over 600 million repositories. Not all of them are benign. Users are expected to exercise judgment about what they interact with.
    • Reviewing content before executing or interacting with it. This applies to code, scripts, workflows, and any other executable content.
    • Understanding that cloning a repository means choosing to trust that code. Git hooks, build scripts, and other repository-level automation execute because the user chose to check out that repository.
    • Configuring their own environment securely. Token management, credential storage, and local security settings are the user’s responsibility.

    When an “attack” requires the victim to actively seek out and engage with attacker-controlled content (cloning a malicious repo, asking an AI tool to analyze untrusted code, opening a crafted file), the security boundary is the user’s decision to trust that content. These scenarios generally don’t represent a bypass of GitHub’s security controls.

    Common examples

    To help researchers calibrate, here are patterns we see regularly that fall under shared responsibility:

    Scenario Why it’s shared responsibility
    Prompt injection via content the user chose to feed to an AI tool The user decided to trust that content
    Git hooks or filters executing code in a repo the user checked out This is how Git works by design
    Malicious content in a repository the user cloned Cloning is an act of trust
    LLM producing unexpected output when processing untrusted input The user chose to provide that input

    Research in these areas is still extremely valuable. If you think you’ve found a blind spot in our defenses (a way to bypass an actual security control that affects users without requiring them to actively trust malicious content), that’s exactly what we want to hear about. Those findings are some of the most impactful submissions we receive. And if you come across content that violates our Terms of Service, please report it.

    What this means for researchers

    If you’re already submitting quality research, thank you. Nothing changes for you except faster response times as we reduce queue noise.

    If you’re new to bug bounty, welcome! Take a few minutes to read our scope, review the ineligible list, and invest in a working proof of concept before submitting. Quality submissions from new researchers are always valued and appreciated.

    If you’ve been prioritizing volume, we’d encourage a shift toward depth. One well-researched, validated finding is worth more than 10 speculative ones, both in bounty payout and reputation. The researchers who earn the most from our program are the ones who go deep.

    Changes to how we reward low-risk findings

    Not every valid submission represents a meaningful security risk. Some reports identify hardening opportunities or documentation gaps that, while not exploitable, still lead to improvements we choose to make. We appreciate that work.

    Going forward, we’re updating how we handle these cases. Submissions that don’t demonstrate significant security impact but do result in a code or documentation fix will be recognized with GitHub swag rather than a bounty payout. This lets us acknowledge the contribution while focusing on our bounty resources on the findings that have the greatest impact on platform security.

    We’d rather see researchers invest their time in deeper, high-impact research and be compensated accordingly than optimize for volume on low-risk findings.

    Looking ahead

    We’re committed to making GitHub’s bug bounty program one of the best in the industry, for researchers and for the security of the platform. That means faster triage, clearer communication, and ensuring that valid findings get the attention and compensation they deserve. Raising quality standards is part of that investment.

    Security researchers make GitHub safer for every developer who depends on it. That work matters, and we don’t take it for granted.

    Happy hacking! 🚀

    The post Raising the bar: Quality, shared responsibility, and the future of GitHub’s bug bounty program appeared first on The GitHub Blog.

    Go to Original Source

  • Raising the bar: Quality, shared responsibility, and the future of GitHub’s bug bounty program

    The security research community is one of GitHub’s greatest assets. Every year, researchers from around the world help us find and fix vulnerabilities, making the platform safer for over 180 million developers. Our bug bounty program exists because we believe that collaboration with external researchers is one of the most effective ways to improve security, and we remain deeply committed to it.

    But like every bug bounty program, we’re adapting to a changing landscape. We want to share what we’re seeing, what we’re doing about it, and how we think about the security boundaries of a platform like GitHub.

    The volume problem

    Over the past year, submission volume across the industry has grown significantly. New tools, including AI, have lowered the barrier to entry for security research, which in many ways is a positive development. More people exploring attack surfaces means more opportunities to find real issues.

    However, alongside the growth in legitimate reports, we’ve seen a sharp increase in submissions that don’t demonstrate real security impact. These include reports without a proof of concept, theoretical attack scenarios that don’t hold up under scrutiny, and findings that are already covered by our published ineligible list. This isn’t unique to GitHub. Programs across the industry are grappling with the same challenge, and some have shut down entirely.

    We don’t want to go that direction. Instead, we want to invest in making our program better.

    What makes a strong submission

    We’re raising the bar on what we consider a complete submission. Going forward, reports will be evaluated more strictly against these criteria:

    • A working proof of concept with demonstrated security impact. Show us the impact, don’t just describe it. What could an attacker actually achieve? We need a working proof of concept that demonstrates real exploitation and concrete security impact. Show us the boundary that can be crossed, not just that one theoretically exists. If your report says “this could lead to…” but doesn’t show that it does, it’s incomplete.
    • Awareness of scope and ineligible findings. Before submitting, review our scope and ineligible findings list. Reports covering known ineligible categories (DMARC/SPF/DKIM configuration, user enumeration, missing security headers without a demonstrated attack path, and others) will be closed as Not Applicable, which may impact your HackerOne Signal and reputation.
    • Validation before submission. No matter what tools you use (scanners, static analysis, AI assistants), you need to validate the output before submitting. A false positive that’s been manually reviewed is caught before it wastes anyone’s time. One that hasn’t is just noise.

    We welcome AI in security research

    We want to be explicit about this: we have no problem with researchers using AI tools. AI is a force multiplier, and we expect it to play an increasing role in security research. We use AI across our own internal security programs, and we’re seeing the best external researchers do the same. We welcome it.

    What we need is the same standard we’ve always expected: validation. An AI-assisted finding that’s been verified, reproduced, and submitted with a working proof of concept is a great submission. An unvalidated output submitted as-is without reproduction or demonstrated impact is not. This isn’t a new standard. It’s the same standard we apply to scanner output, static analysis, or any other tool. The human researcher is accountable for the accuracy of the submission.

    We’d also ask researchers to keep reports concise and structured. A strong report has three things: a short summary of the issue, clear steps to reproduce with supporting evidence (screenshots, HTTP requests, terminal output), and an impact statement explaining what an attacker can actually achieve. That’s it. Verbose reports such as multi-page theoretical narratives, restated background context, or AI-generated filler slow down triage because the actual finding gets buried. The clearer and more direct your report, the faster we can act on it.

    The tools don’t matter. The quality of the work does.

    Understanding GitHub’s security model: Shared responsibility

    One pattern we see frequently deserves its own discussion. Many reports describe scenarios where a user interacts with attacker-controlled content (a malicious repository, a crafted issue, untrusted code) and experiences an undesirable outcome. These reports are often well-written and technically accurate in their observations, but they misunderstand where the security boundary lies.

    We invest heavily in systems and teams dedicated to detecting and handling malicious content across the platform, from automated scanning to manual review. That said, GitHub operates on a shared responsibility model. Users are responsible for:

    • Choosing which repositories, issues, and code they trust. GitHub hosts over 600 million repositories. Not all of them are benign. Users are expected to exercise judgment about what they interact with.
    • Reviewing content before executing or interacting with it. This applies to code, scripts, workflows, and any other executable content.
    • Understanding that cloning a repository means choosing to trust that code. Git hooks, build scripts, and other repository-level automation execute because the user chose to check out that repository.
    • Configuring their own environment securely. Token management, credential storage, and local security settings are the user’s responsibility.

    When an “attack” requires the victim to actively seek out and engage with attacker-controlled content (cloning a malicious repo, asking an AI tool to analyze untrusted code, opening a crafted file), the security boundary is the user’s decision to trust that content. These scenarios generally don’t represent a bypass of GitHub’s security controls.

    Common examples

    To help researchers calibrate, here are patterns we see regularly that fall under shared responsibility:

    Scenario Why it’s shared responsibility
    Prompt injection via content the user chose to feed to an AI tool The user decided to trust that content
    Git hooks or filters executing code in a repo the user checked out This is how Git works by design
    Malicious content in a repository the user cloned Cloning is an act of trust
    LLM producing unexpected output when processing untrusted input The user chose to provide that input

    Research in these areas is still extremely valuable. If you think you’ve found a blind spot in our defenses (a way to bypass an actual security control that affects users without requiring them to actively trust malicious content), that’s exactly what we want to hear about. Those findings are some of the most impactful submissions we receive. And if you come across content that violates our Terms of Service, please report it.

    What this means for researchers

    If you’re already submitting quality research, thank you. Nothing changes for you except faster response times as we reduce queue noise.

    If you’re newer to bug bounty, welcome! Take a few minutes to read our scope, review the ineligible list, and invest in a working proof of concept before submitting. Quality submissions from new researchers are always valued and appreciated.

    If you’ve been prioritizing volume, we’d encourage a shift toward depth. One well-researched, validated finding is worth more than 10 speculative ones, both in bounty payout and reputation. The researchers who earn the most from our program are the ones who go deep.

    Changes to how we reward low-risk findings

    Not every valid submission represents a meaningful security risk. Some reports identify hardening opportunities or documentation gaps that, while not exploitable, still lead to improvements we choose to make. We appreciate that work.

    Going forward, we’re updating how we handle these cases. Submissions that don’t demonstrate significant security impact but do result in a code or documentation fix will be recognized with GitHub swag rather than a bounty payout. This lets us acknowledge the contribution while focusing our bounty resources on the findings that have the greatest impact on platform security.

    We’d rather see researchers invest their time in deeper, high-impact research and be compensated accordingly than optimize for volume on low-risk findings.

    Looking ahead

    We’re committed to making GitHub’s bug bounty program one of the best in the industry, for researchers and for the security of the platform. That means faster triage, clearer communication, and ensuring that valid findings get the attention and compensation they deserve. Raising quality standards is part of that investment.

    Security researchers make GitHub safer for every developer who depends on it. That work matters, and we don’t take it for granted.

    Happy hacking! 🚀

    The post Raising the bar: Quality, shared responsibility, and the future of GitHub’s bug bounty program appeared first on The GitHub Blog.

    Orijinal Kaynağa Git

  • The townspeople of Vilseck, Germany, worry that Trump may pull out 5,000 U.S. troops

    The townspeople of Vilseck, Germany, worry that Trump may pull out 5,000 U.S. troops

    President Trump’s troop withdrawal threat rattles residents of a small Bavarian town reliant on U.S. military personnel and their families for both income and friendships built over decades.

    (Image credit: Lisi Niesner)

    Orijinal Kaynağa Git