Kritische Studie: Manipulierte Daten gefährden KI-Sprachmodelle

16.10.2025 | Allgemein, KI

Eine neue Studie zeigt, dass bereits wenige manipulierte Daten große KI-Modelle gefährden können.

In Kürze

  • 250 vergiftete Dokumente genügen für Angriffe
  • Größe der Modelle schützt nicht vor Manipulation
  • Entwickler müssen Sicherheitsmaßnahmen verstärken

Aktuelle Studie zur Sicherheit von großen KI-Sprachmodellen

In einer aktuellen Studie wird die Sicherheit von großen KI-Sprachmodellen, auch bekannt als LLMs, auf den Prüfstand gestellt. Forscher haben herausgefunden, dass nicht die prozentuale Menge an manipulierten Daten entscheidend ist, sondern die absolute Anzahl. Bereits eine kleine Menge an sogenannten „vergifteten“ Dokumenten kann ausreichen, um ein Modell nachhaltig zu schädigen.

Ergebnisse der Experimente

In den Experimenten, die Modelle mit bis zu 13 Milliarden Parametern umfassten, zeigten sich alarmierende Ergebnisse: Schon 250 manipulierte Dokumente reichten aus, um bei allen getesteten Modellgrößen eine Hintertür zu öffnen. Was bedeutet das konkret? Ein Modell kann bei bestimmten Eingaben unsinnige Antworten liefern, was die Zuverlässigkeit und Sicherheit erheblich beeinträchtigt. Diese Erkenntnis stellt die bisherige Annahme auf den Kopf, dass größere und datenintensivere Modelle automatisch sicherer sind. Tatsächlich können sie leichter angegriffen werden, und das ohne großen Aufwand für den Angreifer.

Implikationen der Studie

Die Implikationen dieser Studie sind weitreichend. Entwickler können sich nicht mehr allein auf die schiere Größe ihrer Trainingsdaten verlassen. Es ist unerlässlich, aktivere Sicherheitsmaßnahmen zu implementieren. Dazu gehört das Filtern von Trainingsdaten sowie die gründliche Analyse der Modelle auf versteckte Schadfunktionen. Wenn sich die Ergebnisse der Studie bestätigen, wird deutlich, dass selbst eine handvoll gezielt manipulierte Daten das Potenzial hat, erhebliche Schäden in KI-Systemen anzurichten.

Herausforderungen für Entwickler

Die Herausforderung für die Entwickler wird also nicht nur darin bestehen, leistungsfähige Modelle zu schaffen, sondern auch sicherzustellen, dass diese Modelle gegen solche Angriffe gewappnet sind.

Quellen

  • Quelle: UK AI Security Institute, Anthropic, Alan Turing Institute
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Oracle plant Supercomputer Zettascale10 mit 800.000 GPUs

Oracle plant Supercomputer Zettascale10 mit 800.000 GPUs

Oracle setzt mit seinem neuen Supercomputer Zettascale10 Maßstäbe in der Rechenleistung.In Kürze16 Zettaflops Rechenleistung durch 800.000 GPUsSpezielles 4-Bit-Berechnungsverfahren für KIErste Betriebsphase ab 2026 in Texas Oracle's Ambitious Plans for the...