KI-Fakes im Alltag: 70 % begegnen generierten Bildern und Videos

14.04.2026 | Allgemein, KI

KI-Fakes tauchen im Alltag auf, Erkennungslücken sind groß.

In Kürze

  • 70% begegnen KI-Inhalten
  • Viele prüfen Quellen nicht
  • BSI will Aufklärung

Du siehst sie wahrscheinlich täglich: KI-generierte Bilder und Videos sind für viele schon Alltag. Das zeigt eine repräsentative Umfrage des Bundesamts für Sicherheit in der Informationstechnik (BSI) und der polizeilichen Kriminalprävention (ProPK) mit mehr als 3.000 Teilnehmenden. Insgesamt gaben 70 % an, online bereits auf solche Inhalte gestoßen zu sein; bei den Unter‑30‑Jährigen liegt der Wert bei 90 %.

Selbstvertrauen trifft auf fehlende Praxis

Fast die Hälfte (47 %) der Befragten glaubt, Deepfakes und ähnliche Fälschungen erkennen zu können. In der Praxis prüfen aber viele nicht systematisch:

  • Ein Drittel hat nie eine gängige Verifikationsmethode genutzt.
  • Nur 28 % suchten gezielt nach grafischen Unstimmigkeiten wie falschen Schatten oder deformierten Gliedmaßen.
  • Lediglich 19 % kontrollierten die Vertrauenswürdigkeit der Quelle.

BSI will Aufklärung stärken

BSI‑Präsidentin Claudia Plattner macht deutlich, dass es für Verbraucherinnen und Verbraucher unverzichtbar geworden ist, KI‑Inhalte identifizieren zu können. Das BSI plant deshalb, stärker zu sensibilisieren und Orientierungshilfen zur Medienkompetenz bereitzustellen.

Unterschätzte Angriffsformen

Die Studie zeigt außerdem, dass bestimmte Risiken wenig bekannt sind: Nur 38 % halten es für realistisch, dass ein KI‑Agent — also ein System, das Aufgaben automatisch ausführt — manipuliert werden kann, sodass er persönliche Daten preisgibt. Ebenfalls nur wenige Befragte sind mit der Gefahr vertraut, dass in Dokumenten „unsichtbare“ schädliche Anweisungen stecken können, die Sprach‑KIs beim Zusammenfassen in die Irre führen.

  • Manipulation von KI‑Agenten: Ein manipuliertes System kann automatisch persönliche Daten preisgeben.
  • „Unsichtbare“ schädliche Anweisungen: Versteckte Instruktionen in Dokumenten können Sprach‑KIs fehlleiten.

Betrug bei Geldanlagen mit Hilfe von KI

Die Vorsitzende der ProPK, Stefanie Hinz, berichtet, dass Online‑Trading‑Betrug zunimmt. Kriminelle setzen zunehmend KI ein, etwa um täuschend echte Videos mit Deepfakes prominenter Personen zu erstellen, die für angeblich lukrative Kryptowährungen werben. (Deepfakes sind mit KI erzeugte, sehr real wirkende Fälschungen von Bildern oder Videos.)

Konkrete Folgen für Anlegerinnen und Anleger

  • Rund 15 % der Befragten haben in Kryptowährungen investiert.
  • Fast ein Drittel dieser Anleger fiel bereits auf ein betrügerisches Angebot herein.
  • Meist wurden die Opfer über gezielte Werbung im Internet auf die Scams aufmerksam gemacht.

Mehr staatliches Eingreifen gewünscht

Eine Mehrheit der Bevölkerung fordert konsequentes Eingreifen der Behörden, vor allem schnellere polizeiliche Maßnahmen gegen betrügerische Webseiten. Ebenfalls gefordert wird eine verpflichtende Kennzeichnung aller mit KI erstellten oder veränderten Inhalte.

Die Zahlen stammen aus einer Sonderauswertung des Cybersicherheitsmonitors 2026 von BSI und ProPK.

Quellen

  • Quelle: BSI / ProPK
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…