OpenAI bezahlt Expert:innen für Suche nach ChatGPT‑5.5‑Biosicherheits‑Jailbreak

27.04.2026 | Allgemein, KI

OpenAI lädt Expert:innen ein, gezielt Schutzlücken in ChatGPT 5.5 für gefährliche Bio‑Anfragen zu testen.

In Kürze

  • Gesucht: ein „universal jailbreak“ für fünf sensible Biosicherheitsfragen
  • Bewerbung 23.4.–22.6., Tests 28.4.–27.7., NDA Pflicht
  • Prämie bis 25.000 USD; Relevanz wegen OpenAI‑Lieferungen an Behörden

OpenAI zahlt dafür, dass Expert:innen seine KI austricksen — diesmal geht es um Biosicherheit.

Du sollst versuchen, ChatGPT 5.5 dazu zu bringen, fünf ausgewählte Fragen zu beantworten, die das Modell normalerweise aus Sicherheitsgründen ablehnt.

Worum genau geht’s?

Ziel ist ein sogenannter „universal Jailbreak“: eine Methode, mit der die Schutzmechanismen von ChatGPT 5.5 umgangen werden, sodass das Modell auf fünf speziell ausgewählte Biosicherheits-Fragen antwortet. Diese Fragen betreffen Inhalte, deren Veröffentlichung potenziell großen Schaden anrichten könnte — etwa sehr detaillierte Anleitungen zu gefährlichen biologischen Verfahren.

Was sind Safeguards und Jailbreaks?

Safeguards sind die eingebauten Schutzmechanismen von ChatGPT, die gefährliche Anfragen erkennen und abwehren sollen. Jailbreaks sind Techniken, mit denen Nutzer versuchen, diese Schutzmechanismen zu umgehen.

Ein bekanntes Beispiel war die sogenannte Timebandit‑Lücke, bei der das Modell durch eine spezielle Eingabe „den Zeitbezug verlor“ und daraufhin trotzdem Anleitungen zu illegalen Aktivitäten lieferte — ein Klassiker unter den Prompt‑Tricks.

Wer darf mitmachen und wie läuft das ab?

  • Teilnahme ist nur per Einladung oder nach erfolgreicher Bewerbung möglich.
  • Der Bewerbungszeitraum läuft vom 23. April bis 22. Juni; die eigentliche Testphase zum Auffinden des Jailbreaks findet vom 28. April bis 27. Juli statt.
  • Alle Tests müssen in ChatGPT 5.5 im Codex Desktop durchgeführt werden.
  • Zudem ist die Unterzeichnung einer Vertraulichkeitsvereinbarung (NDA) Pflicht.

Belohnungen und weitere Regeln

  • Für den ersten vollständig nachgewiesenen universal Jailbreak ist eine Prämie von 25.000 US‑Dollar ausgesetzt.
  • OpenAI behält sich vor, auch für teilweise erfolgreiche Ansätze nach eigenem Ermessen Prämien zu vergeben. Details zu Einreichung, Beurteilung und weiteren Bedingungen sind Teil der Teilnahmeunterlagen.

Warum das Thema so relevant ist

Biosicherheit ist besonders sensibel — und bekommt zusätzliche Bedeutung, weil OpenAI unter anderem das US‑Verteidigungsministerium beliefert. Zuverlässige Schutzmechanismen gegen Missbrauch sind daher keine Bagatelle. Parallel dazu hat OpenAI kürzlich ein offenes Bug‑Bounty‑Programm für Datensicherheit gestartet, bei dem die Community nach Wegen sucht, sensible Nutzerdaten aus ChatGPT zu extrahieren — auch dafür gibt es Prämien.

Kurz zusammengefasst

OpenAI lädt ausgewählte Expert:innen ein, gezielt nach Sicherheitslücken im Umgang mit gefährlichen Bio‑Inhalten von ChatGPT 5.5 zu suchen: mit klaren Regeln, festen Zeitfenstern, NDA‑Pflicht und einer Prämie für erfolgreiche Funde.

Quellen

  • Quelle: OpenAI
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…