US-Behörde lässt KI-Modelle vor Freigabe auf nationale Sicherheitsrisiken testen.
In Kürze
- CAISI schließt Abkommen mit Google DeepMind, Microsoft und xAI
- Firmen liefern teils reduzierte Modellversionen für reale Tests
- Fokus auf Cyberrisiken, nationale Sicherheit und Konkurrenz mit China
Das US-Handelsministerium lässt fortgeschrittene KI-Modelle vor ihrer öffentlichen Freigabe auf Risiken für die nationale Sicherheit prüfen.
Das Center for AI Standards and Innovation (CAISI) hat dafür jetzt neue Vereinbarungen mit Google DeepMind, Microsoft und xAI geschlossen.
Unabhängige Prüfungen, sagt CAISI-Chef Chris Fall, seien nötig, um wirklich zu verstehen, wozu diese Systeme fähig sind. CAISI führt demnach seit geraumer Zeit solche Tests durch und hat nach eigenen Angaben bereits mehr als 40 Prüfungen erledigt — teilweise an Modellen, die noch nicht veröffentlicht waren.
Bei den Untersuchungen kooperieren die Firmen teils eng mit der Behörde. Dafür stellen die Unternehmen manchmal Versionen ihrer Systeme mit reduzierten Sicherheitsvorkehrungen zur Verfügung, damit reale Gefährdungen besser simuliert werden können — quasi Crash-Test-Dummies für KI-Software. Die neuen Abkommen bauen auf früheren Deals mit Anthropic und OpenAI auf und erlauben Tests auch in geheimen, abgesicherten Umgebungen.
Worum es konkret geht:
CAISI und die Firmen prüfen gemeinsam Sicherheitsfähigkeiten und Risiken von Modellen und suchen nach Wegen, diese Risiken zu verringern. Hintergrund ist, dass KI-Modelle immer besser darin werden, Schwachstellen in digitalen Systemen zu finden und auszunutzen — ein relevantes Thema für die Cybersicherheit. Außerdem sehen die USA die Kooperation als Reaktion auf ein verschärftes technologisches Wettrennen mit China.
Zur Einordnung:
„KI-Modelle“ sind Programme, die aus großen Datenmengen lernen, um Aufgaben zu lösen — etwa Texte zu erzeugen oder technische Probleme zu analysieren. Die geplanten Tests sollen mögliche Gefahren frühzeitig aufdecken und prüfen, mit welchen Gegenmaßnahmen sich diese Gefahren eindämmen lassen.
Quellen
- Quelle: Center for AI Standards and Innovation (CAISI)
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




