OpenAI nutzt interne ChatGPT‑Variante, um mögliche Leaks zu orten

13.02.2026 | Allgemein, KI

OpenAI setzt intern eine angepasste ChatGPT-Version ein, die interne Dokumente und Kommunikation nach Übereinstimmungen mit Medienberichten durchsucht.

In Kürze

  • KI durchsucht Slack, E‑Mails und interne Dokumente
  • System zeigt relevante Dateien und wer darauf Zugriff hatte
  • Unklar, wie weit Einsatz, Datenschutz und Folgen geregelt sind

OpenAI setzt offenbar eine interne, angepasste Version von ChatGPT ein, um mögliche Informationslecks aufzuspüren. Das berichtet The Information auf Basis einer Quelle, die mit dem Vorgang vertraut ist.

Wenn über interne Vorgänge ein Artikel erscheint, geben Sicherheitsmitarbeiter demnach den Text in das System ein. Die KI hat dem Bericht zufolge Zugriff auf interne Dokumente sowie auf Kommunikationskanäle wie Slack und E‑Mails. So kann sie Nachrichten, Dateien und Konversationen durchforsten, die die im Artikel genannten Informationen enthalten.

Das System identifiziert nicht nur die relevanten Dateien oder Unterhaltungen, sondern zeigt auch an, welche Personen auf diese Inhalte Zugriff hatten. Auf diese Weise lassen sich mögliche Ursprünge eines Lecks eingrenzen und Personen benennen, die als Quelle in Frage kommen. Ob durch diesen Prozess bereits jemand formell überführt wurde, ist The Information zufolge allerdings nicht bekannt.

Parallel dazu haben OpenAI‑Ingenieure eine interne Architektur für einen KI‑Agenten vorgestellt, die offenbar für solche Zwecke genutzt werden kann. Dieser Agent ermöglicht es Mitarbeitenden, komplexe Daten in normaler Sprache zu analysieren und soll Zugriff auf unternehmensinternes Wissen in Slack, Google Docs und ähnlichen Ablagen haben.

Die Berichte beschreiben also ein System, das interne Inhalte automatisiert durchsucht und Verbindungen zwischen publizierten Informationen und internen Quellen herstellt. Wie umfassend dieses System aktuell eingesetzt wird und welche Sicherheits- oder Datenschutzmechanismen dabei greifen, geht aus dem Bericht nicht detailliert hervor.

Quellen

  • Quelle: OpenAI
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

PAIE: MITs Prüfstand für KI in der Armutsbekämpfung startet

PAIE: MITs Prüfstand für KI in der Armutsbekämpfung startet

MITs J‑PAL startet Project AI Evidence (PAIE): Prüfstand zur wissenschaftlichen Bewertung von KI in Sozialprogrammen.In KürzePAIE testet KI in Bildung, Gesundheit und KatastrophenschutzGefördert von Google.org, IDRC, Community Jameel; AWS kooperiertZiel: nur wirksame,...

Verlage klagen: EU‑Beschwerde gegen Googles KI‑Antworten

Verlage klagen: EU‑Beschwerde gegen Googles KI‑Antworten

Verlage klagen bei der EU gegen Googles KI‑Antworten.In KürzeAntworten statt LinksKeine VergütungEU prüft Rechte Google unter Beschuss: Verleger reichen Beschwerde bei der EU ein Ein Verband großer europäischer Verlage hat offiziell Beschwerde gegen Googles...