KI-Deepfakes per Audio/Video setzen Firmen unter Druck.
In Kürze
- 40% Mittelstand nutzt KI
- Betrug via Stimmen/Videos steigt
- Schulung und klare Haftung
Wenn dein Chef per Video anruft — und es gar nicht sein darf: Deepfakes bringen Firmen in Gefahr. Betrüger nutzen mittlerweile KI‑generierte Audio‑ und Videodateien, um sich als Führungskräfte oder Finanzverantwortliche auszugeben und Mitarbeitende unter Druck zu setzen, große Summen zu überweisen.
Wie verbreitet KI wirklich ist
KI ist kein Zukunftsprojekt mehr, sondern Alltag: Eine Umfrage des Instituts für Lernen und Innovation in Netzwerken an der Hochschule Karlsruhe zeigt, dass 40 % der mittelständischen Unternehmen (20–500 Beschäftigte) KI bereits einsetzen, weitere 21 % planen das. Damit verändert die Technologie zunehmend die Arbeitswelt — mit Chancen, aber eben auch neuen Risiken.
Was das für Jobs bedeutet
Das Institut für Arbeitsmarkt- und Berufsforschung (IAB) rechnet in den nächsten 15 Jahren mit Verschiebungen am Arbeitsmarkt: Rund 1,6 Millionen Stellen könnten wegfallen oder neu entstehen. Die Gesamtzahl der Beschäftigten dürfte sich laut IAB jedoch weitgehend stabil halten.
Die laute Klugscheißerin am Chatfenster
Kulturkritiker Georg Seeßlen beschreibt ChatGPT und ähnliche Systeme als eine Art „laute, oft überflüssige Klugscheißerin“ — unterhaltsam, aber nicht immer verlässlich. Die Kritik trifft einen Nerv: Auftraggeber und Nutzer müssen entscheiden, wann KI sinnvoll ist und wann menschliches Urteilsvermögen erforderlich bleibt.
Rechtliche Lage und Pflichten für Arbeitgeber
Die EU hat 2024 eine KI‑Verordnung erlassen. Darin gelten Arbeitgeber zunächst als Verantwortliche für den KI‑Einsatz im Betrieb; Artikel 4 sieht unter anderem vor, dass Mitarbeitende in KI‑Kompetenzen geschult werden müssen. Viele Haftungsfragen sind jedoch offen: Ein Entwurf für eine EU‑Haftungsrichtlinie wurde zurückgezogen, und Rechtsexperten kritisieren, die Verordnung mache keine konkreten Vorgaben dazu, wie solche Schulungen praktisch aussehen sollen.
So funktioniert der Deepfake‑Betrug
Die Täter bauen Vertrauen auf, bevor sie zuschlagen: Sie sammeln öffentlich verfügbare Informationen —
- Organigramme
- E‑Mail‑Adressen
- Social‑Media‑Profile
— und nutzen Social Engineering‑Methoden wie Zeitdruck oder Geheimhaltung, um Mitarbeitende zu Fehlern zu verleiten. In den entscheidenden Momenten kommen KI‑Stimmen und -Videos zum Einsatz: Gefälschte Stimmen lassen sich inzwischen mit wenigen Minuten Ausgangsmaterial erzeugen. Tools wie
- ElevenLabs
- Resemble.ai
- Speechify
werden dafür genannt. In manchen Fällen werden sogar vermeintliche Führungskräfte in Videokonferenzen eingeblendet, um Anweisungen glaubhaft zu machen.
Wie sicher ist unser Vertrauen noch?
Die Verunsicherung ist groß: In einer Bitkom‑Umfrage sagen 81 % der Befragten, sie könnten einen Deepfake nicht erkennen; 44 % geben an, schon einmal hereingefallen zu sein. 70 % misstrauen Fotos und Videos generell, und 63 % äußern Angst vor Deepfakes. Diese Zahlen zeigen, wie stark die Glaubwürdigkeit visueller und akustischer Medien bereits gelitten hat.
Ein spektakulärer Fall
Kein Einzelfall: 2024 erbeuteten Betrüger in Hongkong rund 23 Millionen Euro, indem sie in einer vorgetäuschten Videokonferenz Mitglieder des Finanzvorstands simulierten und so Überweisungen veranlassten.
Was jetzt aus Sicht von Fachleuten ansteht
Neben technischen Gegenmaßnahmen betonen Expertinnen und Experten, dass rechtliche Klarheit und betriebliche Regeln fehlen. Sie fordern verbindliche Vorgaben für Schulungen und klare Zuständigkeiten im Unternehmen, damit sich Mitarbeitende besser gegen solche Angriffe schützen können — und Unternehmen wissen, wie sie im Ernstfall haften.
Quellen
- Quelle: Digitalverband Bitkom / Polizei NRW / Hochschule Karlsruhe / EU-Kommission
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




