Medienanstalten prüfen, ob KI‑Summaries Medienvielfalt und Verlage gefährden.
In Kürze
- Quellen werden oft verschleiert
- Zero‑Click reduziert Verlagstraffic
- DSA und Haftung werden geprüft
Wenn du heute eine Frage in Google oder in einer KI‑Suchmaschine wie Perplexity eingibst, bekommst du immer öfter keine Liste mit Links, sondern eine fertige Antwort direkt auf der Ergebnisseite. Mitte Januar haben zwei deutsche Landesmedienanstalten deswegen jetzt offiziell Verfahren gegen Google und Perplexity eröffnet.
Wer ermittelt und warum
Die Medienanstalt Berlin‑Brandenburg (mabb) und die Landesanstalt für Medien Nordrhein‑Westfalen (LfM) prüfen, ob die sogenannten AI Overviews die mediale Vielfalt gefährden. Kernvorwurf: Wenn KI‑Zusammenfassungen Inhalte aus vielen Quellen zu einem einheitlichen Text verschmelzen, ist unklar, woher die Informationen stammen — und Nutzer lesen diese Antworten oft, ohne die Ursprungstexte aufzurufen.
Was die Behörden konkret interessiert
- Schutz der medialen Vielfalt: Die Aufseher wollen verhindern, dass öffentliche Meinungsbildung durch unsichtbare Quellenverflechtung eingeengt wird.
- Zuständigkeit und Verantwortung: Es soll geklärt werden, wer für die Texte haftet — die Plattformen, die KI‑Modelle oder die Inhaltelieferanten.
- Zero‑Click‑Szenario: Studien deuten darauf hin, dass viele Nutzer die Antwort direkt lesen und nicht mehr auf die Originalseiten klicken. Das kann Reichweitenverluste und Einnahmeeinbußen bei Verlagen bedeuten.
Die Vorwürfe gegen Perplexity und Google
Nach Angaben der Aufsicht behandeln Perplexity und ähnliche Dienste externe Webseiten oft so, dass deren Inhalte eher als Fußnoten erscheinen statt sichtbar verlinkt. Google zeigt seine KI‑Zusammenfassungen auf Smartphones häufig so prominent, dass klassische Suchtreffer nach unten rutschen. Verlage berichten von sinkenden Klickzahlen, was ihre Refinanzierung gefährdet.
Rechtlicher Rahmen und erste Urteile
Als rechtliche Grundlage zieht die Aufsicht unter anderem den Digital Services Act (DSA) heran — das EU‑Gesetz verlangt, dass große Plattformen Risiken für Meinungsfreiheit und Medienpluralität bewerten und mindern. Parallel beschäftigt die Justiz bereits Einzelfälle: Das Landgericht Frankfurt hat entschieden, dass falsche KI‑Aussagen über Unternehmen nicht bloß technische Fehler sind. Solche „Halluzinationen“ können wettbewerbswidrig sein und Rechtsschutz wie Unterlassungsansprüche ermöglichen. Außerdem untersucht die EU‑Kommission, ob Google bei seinen KI‑Funktionen Inhalte Dritter ohne Erlaubnis verwendet hat.
Wie die Plattformen reagieren
Google bestreitet, dass die neuen KI‑Übersichten automatisch zu weniger Klicks führen, und stellt die Zuständigkeit der deutschen Medienwächter infrage. Das Unternehmen verweist auf die EU‑Kommission und die irische Datenschutzaufsicht als primäre Ansprechpartner. Perplexity steht besonders im Fokus hinsichtlich seines Umgangs mit fremden Inhalten.
Warum das Verfahren Bedeutung hat
Die Verfahren markieren den Start einer breiteren Debatte: Müssen Suchmaschinen weiterhin als neutrale Vermittler gelten, oder sind ihre KI‑Zusammenfassungen so einflussreich geworden, dass sie einer stärkeren Aufsicht unterliegen? Entscheidend wird sein, wie nationales Medienrecht und das europäische Plattformrecht künftig zusammenwirken — und welche Regeln für Transparenz, Quellenangabe und Haftung gelten sollen.
Quellen
- Quelle: Medienanstalt Berlin-Brandenburg (mabb) / Landesanstalt für Medien NRW (LfM)
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




