Große Sprachmodelle verknüpfen pseudonyme Beiträge in vielen Fällen mit realen Profilen.
In Kürze
- Modelle erreichen bis zu 68% Identifikationsrate
- Vorgeschlagene Zuordnungen waren bis zu 90% korrekt
- Risiken: Überwachung, Spear‑Phishing, Fehlzuordnungen
Dein Pseudonym im Netz lässt sich leichter mit deinem echten Profil verknüpfen, als du vielleicht denkst. Eine Studie der ETH Zürich zusammen mit dem KI‑Unternehmen Anthropic hat getestet, wie gut große Sprachmodelle (die Technik hinter Tools wie ChatGPT) pseudonyme Social‑Media‑Konten realen Personen zuordnen können — und die Ergebnisse sind eindrücklich.
Was die Forschenden gemacht haben
Die Teams arbeiteten mit anonymisierten Profilen, die auf Beiträgen von Reddit und HackerNews basieren. Die KI sollte passende Identitäten in öffentlich zugänglichen Profilen finden, etwa auf LinkedIn. Dafür liest das Modell normale Beiträge und Kommentare, extrahiert Hinweise wie Interessen, Beruf, Schreibstil oder Ortsangaben und gleicht diese Informationen mit im Web verfügbaren Profilen ab.
Ein konkretes Beispiel:
Details über einen Hund namens Biscuit und einen bestimmten Park reichten der KI, um online nach Personen zu suchen, die zu diesen Hinweisen passen — und eine Verbindung herzustellen.
Wie gut das klappt
Die getesteten Modelle erreichten Identifizierungsraten von bis zu 68 Prozent. Wenn das Modell eine Zuordnung vorschlug, war diese in bis zu 90 Prozent der Fälle korrekt. Laut den Forschenden lassen sich Grundrecherchen in „fünf Sekunden“ erledigen; komplexere Zuordnungen dauern länger, aber bleiben deutlich schneller und günstiger als klassische manuelle Recherchen. Wichtig: Für erste Schritte genügt häufig ein öffentlich zugängliches Sprachmodell und Internetzugang.
Konkrete Gefahren und bereits dokumentierte Fälle
- Autoritäre Regime könnten Dissidenten einfacher finden und überwachen.
- Kriminelle könnten sehr gezielte Betrugsangriffe (Spear‑Phishing) konzipieren.
- Firmen könnten extrem detaillierte Profile für Marketing oder Analysen erstellen.
- Es gibt schon einen dokumentierten Fall: Das KI‑Tool Grok von xAI offenbarte Name und Adresse einer Pornodarstellerin, die zuvor unter einem Künstlernamen arbeitete.
- Fehlzuordnungen sind möglich — Menschen könnten fälschlich verdächtigt oder belästigt werden.
Wie viel du postest, beeinflusst deine Erkennbarkeit
Die Studie zeigt einen klaren Zusammenhang zwischen Menge an Beiträgen und Identifizierbarkeit: Nutzer, die nur einmal etwa einen Film in einem Subreddit kommentierten, wurden in rund 3 Prozent der Fälle identifiziert. Wer über mehr als zehn verschiedene Filme schrieb, war in über 48 Prozent der Fälle erkennbar.
Was Plattformen und du tun sollten
Die Forschenden nennen mehrere technische und verhaltensbezogene Gegenmaßnahmen:
- Für Plattformen: Zugriff auf Nutzerdaten einschränken, Download‑Raten begrenzen, automatisiertes Auslesen erkennen und Massenexporte verhindern.
- Für dich als Nutzer: weniger persönliche Details preisgeben, Beiträge regelmäßig löschen und nicht dieselben Informationen auf mehreren Plattformen wiederholen.
Gleichzeitig betonen Expertinnen und Experten, dass Nutzer nicht allein dafür verantwortlich sein sollten, sich gegen gut ausgestattete Gegner zu schützen.
Die Kernaussage der Studie
Moderne KI-Modelle beschleunigen und vereinfachen das Verknüpfen pseudonymer Beiträge mit echten Identitäten erheblich — das macht technische Schutzmaßnahmen seitens Plattformen und ein überlegtes Verhalten beim Teilen persönlicher Informationen erforderlich.
Quellen
- Quelle: ETH Zürich / Anthropic
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




