OpenAI verkürzt Sicherheitsprüfungen für neues KI-Modell – Risiken steigen

12.04.2025 | Allgemein, KI

OpenAI sorgt mit der drastischen Verkürzung der Sicherheitsprüfungen für sein neues KI-Modell „o3“ für Aufregung in der Branche.

In Kürze

  • Sicherheitsprüfungen für „o3“ nur noch wenige Tage
  • Experten warnen vor möglichen Risiken und Missbrauch
  • EU plant striktere Vorschriften für KI-Tests

OpenAI beschleunigt seine KI-Entwicklung

OpenAI beschleunigt seine KI-Entwicklung und sorgt damit für Aufregung in der Branche. Während Konkurrenten wie Meta und Google ebenfalls im Wettlauf um innovative KI-Lösungen sind, hat OpenAI die Sicherheitsprüfungen für sein neuestes Modell „o3“ drastisch verkürzt. Wo frühere Modelle wie GPT-4 noch etwa sechs Monate für eine umfassende Überprüfung benötigten, sollen die Tests für „o3“ nun nur noch wenige Tage in Anspruch nehmen.

Fragen zur Sicherheit und Gründlichkeit

Diese rasante Vorgehensweise wirft jedoch Fragen auf. Experten warnen, dass eine solch schnelle Prüfung die Gründlichkeit und Sorgfalt vermissen lässt, die für die Sicherheit von KI-Modellen unerlässlich sind. Besonders besorgniserregend ist das Potenzial für Missbrauch, etwa bei der Entwicklung biologischer Waffen. OpenAI hatte sich ursprünglich zu umfangreichen Tests verpflichtet, doch diese Verpflichtung scheint nun auf der Strecke zu bleiben.

Kritik an Testmethoden

Ein weiterer Kritikpunkt ist, dass die Tests häufig an Zwischenständen des Modells durchgeführt werden. Dies könnte dazu führen, dass die tatsächliche Leistungsfähigkeit und die damit verbundenen Risiken nicht korrekt eingeschätzt werden.

Technologische Fortschritte und regulatorische Entwicklungen

OpenAI selbst betont, dass technologische Fortschritte und automatisierte Tests eine schnelle, aber dennoch gründliche Überprüfung ermöglichen. Doch während das Unternehmen auf diese Argumente setzt, bleibt die Frage, wie sicher die neuen Modelle tatsächlich sind.

Ein Blick auf die regulatorische Landschaft zeigt, dass es weltweit bislang keine einheitlichen Regeln für Sicherheitstests von KI gibt. Doch das könnte sich bald ändern: Ab Ende des Jahres plant die EU, striktere Vorschriften einzuführen, die für leistungsstarke KI-Modelle verpflichtende Prüfungen vorschreiben. Die kommenden Monate könnten also entscheidend dafür sein, wie sich die Sicherheitsstandards in der KI-Entwicklung weiterentwickeln.

Quellen

  • Quelle: OpenAI
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Nvidia öffnet Warp: Python-Framework jetzt Open Source

Nvidia öffnet Warp: Python-Framework jetzt Open Source

Nvidia hat sein Python-Framework Warp unter die Open-Source-Lizenz Apache 2 gestellt und reagiert damit auf Community-Kritik.In KürzeWarp wandelt Python-Funktionen in Echtzeit in Code um.Das Framework unterstützt sowohl x86- als auch CUDA-GPUs.Integration in...