OpenAI hat die Entwicklung eines Tools zur Erkennung von KI-generierten Texten eingestellt, da es nur 26% korrekt identifizieren konnte.
In Kürze
- Tool identifiziert nur 26% der KI-Texte korrekt
- Hohe Anzahl an falschen Positiven gefährdet Bildung
- Medien stehen vor neuen Herausforderungen
OpenAI stellt Entwicklung eines Erkennungstools ein
OpenAI hat die Entwicklung eines Tools zur Erkennung von KI-generierten Texten eingestellt. Der Grund? Das Tool konnte lediglich 26 Prozent der maschinell erzeugten Texte korrekt identifizieren. Das klingt nicht gerade nach einem Erfolg, oder? Besonders problematisch war die hohe Anzahl an sogenannten „False Positives“. Das bedeutet, dass menschliche Texte fälschlicherweise als von einer KI erstellt eingestuft wurden. Ein echtes Dilemma, vor allem in Bereichen wie Bildung, wo solche Fehler zu ungerechtfertigten Plagiatsvorwürfen führen können.
Auswirkungen auf Schulen und Universitäten
Was bedeutet das für Schulen und Universitäten? Sie müssen jetzt wieder auf die klassischen Methoden der Textüberprüfung zurückgreifen oder ihre Prüfungsformate überdenken. Das könnte eine Rückkehr zu altbewährten Techniken bedeuten, die vielleicht nicht so effizient sind, aber zumindest verlässlich.
Auswirkungen im Medienbereich
Auch im Medienbereich hat das Versagen des Tools spürbare Auswirkungen. Leser können sich nicht mehr sicher sein, ob ein Text von einem Menschen oder einer Maschine stammt. Das wirft Fragen auf, die in der heutigen Zeit, in der KI immer präsenter wird, nicht ignoriert werden können.
Technologische Herausforderungen
Insgesamt zeigt sich, dass die Software mit der rasanten Entwicklung der Sprachmodelle nicht Schritt halten konnte. Derzeit gibt es keine zuverlässige technische Methode, um zwischen menschlichen und maschinellen Texten zu unterscheiden. Ein spannendes, aber auch herausforderndes Thema, das uns alle betrifft.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




