US prüft KI‑Modelle auf Sicherheitsrisiken – Abkommen mit Google, Microsoft und xAI

06.05.2026 | Allgemein, KI

US-Behörde lässt KI-Modelle vor Freigabe auf nationale Sicherheitsrisiken testen.

In Kürze

  • CAISI schließt Abkommen mit Google DeepMind, Microsoft und xAI
  • Firmen liefern teils reduzierte Modellversionen für reale Tests
  • Fokus auf Cyberrisiken, nationale Sicherheit und Konkurrenz mit China

Das US-Handelsministerium lässt fortgeschrittene KI-Modelle vor ihrer öffentlichen Freigabe auf Risiken für die nationale Sicherheit prüfen.

Das Center for AI Standards and Innovation (CAISI) hat dafür jetzt neue Vereinbarungen mit Google DeepMind, Microsoft und xAI geschlossen.

Unabhängige Prüfungen, sagt CAISI-Chef Chris Fall, seien nötig, um wirklich zu verstehen, wozu diese Systeme fähig sind. CAISI führt demnach seit geraumer Zeit solche Tests durch und hat nach eigenen Angaben bereits mehr als 40 Prüfungen erledigt — teilweise an Modellen, die noch nicht veröffentlicht waren.

Bei den Untersuchungen kooperieren die Firmen teils eng mit der Behörde. Dafür stellen die Unternehmen manchmal Versionen ihrer Systeme mit reduzierten Sicherheitsvorkehrungen zur Verfügung, damit reale Gefährdungen besser simuliert werden können — quasi Crash-Test-Dummies für KI-Software. Die neuen Abkommen bauen auf früheren Deals mit Anthropic und OpenAI auf und erlauben Tests auch in geheimen, abgesicherten Umgebungen.

Worum es konkret geht:

CAISI und die Firmen prüfen gemeinsam Sicherheitsfähigkeiten und Risiken von Modellen und suchen nach Wegen, diese Risiken zu verringern. Hintergrund ist, dass KI-Modelle immer besser darin werden, Schwachstellen in digitalen Systemen zu finden und auszunutzen — ein relevantes Thema für die Cybersicherheit. Außerdem sehen die USA die Kooperation als Reaktion auf ein verschärftes technologisches Wettrennen mit China.

Zur Einordnung:

KI-Modelle“ sind Programme, die aus großen Datenmengen lernen, um Aufgaben zu lösen — etwa Texte zu erzeugen oder technische Probleme zu analysieren. Die geplanten Tests sollen mögliche Gefahren frühzeitig aufdecken und prüfen, mit welchen Gegenmaßnahmen sich diese Gefahren eindämmen lassen.

Quellen

  • Quelle: Center for AI Standards and Innovation (CAISI)
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Grok könnte bald per CarPlay sprechen – iOS zeigt Icon

Grok könnte bald per CarPlay sprechen – iOS zeigt Icon

iOS‑Hinweise deuten auf Grok für CarPlay hin: Icon sichtbar, noch inaktiv.In KürzeGrok‑App zeigt CarPlay‑PlatzhalterIn Tesla bereits per Sprache aktivApple erlaubt Auto‑Chatbots; Siri noch ohne Chat Grok könnte bald in dein Auto sprechen Grok könnte bald in dein Auto...