Die Kommission prüft X nach problematischen, KI-generierten Bildern aus Grok.
In Kürze
- Verfahren wegen sexualisierter Deepfakes und gewaltverherrlichender Bilder
- X muss Risikofolgeabschätzung nach DSA (Art. 34/35) vorlegen
- Kommission fordert Infos zu Empfehlungsmechanismen; Sanktionen möglich
Die EU-Kommission hat ein weiteres DSA-Verfahren gegen Elon Musks Plattform X eröffnet — diesmal wegen der Integration des internen KI-Modells Grok. Es ist bereits das dritte Verfahren, das sich gegen X richtet.
Worum es geht
In den vergangenen Wochen tauchten mehrere Fälle auf, bei denen Grok offenbar eindeutig strafbare und stark problematische Bilder erzeugte: sexualisierte Deepfakes (auch mit mutmaßlich minderjährigen Personen), gewaltverherrlichende Darstellungen und offenbar geschlechtsspezifische Gewaltdarstellungen. Vizepräsidentin Henna Virkkunen kommentierte die sexualisierten Deepfakes von Frauen und Kindern als eine „gewalttätige, inakzeptable Herabsetzung“. Vor diesem Hintergrund will die Kommission prüfen, ob X seine Pflichten gegenüber Nutzenden in der EU eingehalten hat oder ob Rechte vernachlässigt wurden.
Rechtsgrundlage: DSA und Risikofolgeabschätzung
Der rechtliche Ansatz basiert auf dem Digital Services Act (DSA). Weil X das KI-Angebot Grok direkt in seine Plattform eingebunden hat, greift der DSA: Plattformen dieser Größe müssen vor solchen Integrationen eine Risikofolgeabschätzung vorlegen — also eine systematische Einschätzung möglicher Schäden. Die entsprechenden Regeln finden sich in den Artikeln 34 und 35 des DSA. Liegt eine solche Bewertung nicht vor, stellt das einen Verstoß dar; Plattformen müssen ihre Risikoeinschätzungen auf Nachfrage zur Verfügung stellen.
Aktueller Stand und Reaktionen
Die Kommission geht zunächst nicht sofort zu harten Maßnahmen über. X teilt mit, bereits an Filtern gearbeitet und erste Schritte zur Behebung der Probleme unternommen zu haben; die Kommission äußerte sich vorsichtig zuversichtlich, dass die Vorfälle ernst genommen werden. Kritiker hatten der Behörde zuvor Trägheit vorgeworfen. Die Grünen-Europaabgeordnete Alexandra Geese wertete das neue Verfahren als richtigen Schritt im Umgang mit großen Tech-Plattformen.
Zweiter Prüfpunkt: Empfehlungsmechanismen
Neben der Risikofolgeabschätzung fordert die Kommission Informationen dazu, wie X Inhalte seinen Nutzerinnen und Nutzern empfiehlt — sprich: wer wann welche Inhalte sieht. Das Thema war bereits in früheren Untersuchungen präsent, gewinnt aber an Bedeutung, weil X offenbar plant, KI-generierte Inhalte gezielt auszuspielen.
Aufsicht, Zuständigkeiten und mögliche Folgen
Für Very Large Online Platforms (VLOP) wie X ist die EU-Kommission die zuständige Aufsichtsbehörde; kleinere Dienste werden von nationalen Behörden überwacht. Der DSA, der seit Februar 2024 in Kraft ist, stattet die Aufsichten mit umfangreichen Befugnissen aus:
- Anfordern von Unterlagen
- Einholung von Zeugenaussagen
- Verhängung von Bußgeldern
Im Fall X arbeitet die Kommission eng mit der irischen DSA-Aufsicht zusammen, weil die europäische Tochterfirma von X in Dublin angesiedelt ist.
Andere Rechtswege
Der DSA ist nicht der einzige rechtliche Rahmen.
- Nationale Strafvorschriften
- Datenschutzrecht (etwa DSGVO)
- zivilrechtliche Ansprüche wie Schadenersatz oder Unterlassung
Diese Wege kommen ebenfalls in Betracht — sie werden jedoch nicht von der EU-Kommission selbst verfolgt.
Offene Fragen rund um die KI-Regulierung
Die KI-Verordnung (AI Act) ist noch nicht vollständig anwendbar. Die Kommission hatte zuletzt vorgeschlagen, Regeln für sogenannte Allzweck-KI-Systeme zeitlich zu verschieben. Ob und in welchem Umfang künftige Änderungen am AI Act der Kommission zusätzliche Durchgriffsoptionen verschaffen, bleibt offen. Das Europaparlament hat signalisiert, die Problematik etwa im Rahmen des so genannten „Digitalomnibus“ stärker thematisieren zu wollen.
Quellen
- Quelle: EU-Kommission
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




