Eine neue Sicherheitslücke bei OpenAI’s ChatGPT sorgt für Aufregung. Radware hat die Schwachstelle entdeckt, die persönliche Daten gefährdet.
In Kürze
- Radware enthüllt die Sicherheitslücke „ShadowLeak“
- Angreifer können persönliche Daten über E-Mails abgreifen
- OpenAI informierte nicht über Fortschritte bei der Behebung
Das US-israelische Unternehmen Radware entdeckt Sicherheitslücke bei ChatGPT
Das US-israelische Unternehmen Radware hat eine alarmierende Sicherheitslücke bei OpenAI’s ChatGPT aufgedeckt. Diese Schwachstelle, die den Namen „ShadowLeak“ trägt, ermöglicht es Angreifern, über geschickt getarnte E-Mails den sogenannten „Deep Research Agent“ von ChatGPT dazu zu bringen, persönliche Daten aus E-Mails auszulesen und an die Angreifer weiterzuleiten.
Funktionsweise der Sicherheitslücke
Wie funktioniert das Ganze? Angreifer nutzen eine raffinierte Kombination aus versteckten Anweisungen und Kodierungstechniken, um die Schutzmaßnahmen des KI-Modells zu umgehen. Sie sorgen dafür, dass sensible Informationen verschlüsselt übermittelt werden, was die Erkennung dieser Daten erheblich erschwert. Das Problem, dass große Sprachmodelle Schwierigkeiten haben, zwischen verschiedenen Arten von Daten zu unterscheiden, ist dabei nicht neu.
Reaktion von OpenAI
OpenAI-Chef Sam Altman hatte bereits im Juli auf die Gefahren hingewiesen, die mit dem Zugriff von ChatGPT auf E-Mails verbunden sind. Dennoch wurde die Sicherheitslücke erst sechs Wochen nach der Meldung durch Radware geschlossen. Überraschenderweise informierte OpenAI die Entdecker der Lücke nicht über den Fortschritt der Behebung. Während Altman im Juli vage auf Risiken hinwies, blieb die konkret bekannte Schwachstelle unerwähnt.
Wichtigkeit der Sicherheitsaspekte bei KI-Systemen
Dieser Vorfall verdeutlicht, wie wichtig es ist, bei der Nutzung von KI-Systemen die Sicherheitsaspekte im Blick zu behalten und den Zugang zu persönlichen Daten kritisch zu hinterfragen. In einer Zeit, in der KI immer mehr in unseren Alltag integriert wird, ist es unerlässlich, sich der potenziellen Risiken bewusst zu sein.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.