Microsoft warnt: Versteckte Anweisungen in Links können KI‑Antworten verfälschen.
In Kürze
- Unsichtbare Instruktionen in URLs/Buttons
- 50+ manipulierte Prompts von 31 Firmen
- Prüfe gespeicherte Präferenzen und Links
Microsoft warnt vor neuer Manipulationsmethode: „AI Recommendation Poisoning“
Microsofts Sicherheitsforscher schlagen Alarm: Unter dem Namen „AI Recommendation Poisoning“ beschreiben sie eine Methode, mit der Angreifer — oder Firmen mit versteckten Absichten — KI‑Assistenten gezielt falsche oder gesteuerte Empfehlungen entlocken. Die Technik versteckt Anweisungen in Links oder Buttons, die beim Aufruf an die KI weitergereicht werden und so Antworten verfälschen können.
Wie das funktioniert
Angreifer platzieren unsichtbare Instruktionen in URLs oder Schaltflächen. Eine URL kann nämlich Parameter enthalten — zusätzliche Textteile, die beim Laden an Dienste übergeben werden. Wenn ein KI‑Assistent diese Informationen übernimmt, kann er die Ausgabe entlang der versteckten Vorgaben anpassen. Das erinnert an früheres „SEO‑Poisoning“, wo Suchergebnisse durch manipulierte Inhalte in die Irre geführt wurden.
Was Microsoft gefunden hat
Das Defender Security Team dokumentiert mehr als 50 unterschiedliche manipulierte Eingabeaufforderungen, stammend von 31 Firmen aus 14 Branchen. Offen verfügbare Tools machen die Technik laut Bericht relativ leicht nutzbar. In einem Live‑Beispiel wies ein Link den Chatbot Perplexity AI an, einen Artikel „im Stil eines Piraten“ zusammenzufassen — und der Dienst lieferte genau das, inklusive Zitaten aus dem Text.
Warum das problematisch ist
Einmal übernommen, können solche Anweisungen in den „Erinnerungen“ oder Präferenzen eines KI‑Assistenten verbleiben. Die KI behandelt sie dann wie legitime Nutzervorgaben und zieht sie in künftige Antworten mit ein. Das führt zu schwer erkennbaren, potenziell dauerhaften Verzerrungen — besonders heikel bei sensiblen Themen wie Gesundheit, Finanzen oder Sicherheit.
Microsofts Hinweise für Nutzer
Microsoft empfiehlt, Links und KI‑bezogene Buttons kritisch zu betrachten. Konkret raten die Forscher:
- gespeicherte Erinnerungen oder Präferenzen des Assistents regelmäßig zu prüfen
- unbekannte Einträge zu löschen
- zweifelhafte Empfehlungen bewusst zu hinterfragen
Die Warnung ist auch deshalb relevant, weil Microsoft selbst mit Produkten wie Copilot tief in Windows und Office integriert ist — viele Nutzer vertrauen solchen Empfehlungen recht schnell.
Quellen
Quellen
- Quelle: Microsoft
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




