Microsofts Copilot-Text nannte das Tool ’nur zu Unterhaltungszwecken‘ — das löste Spott aus. Microsoft will Formulierungen überarbeiten.
In Kürze
- Copilot-Disclaimer rät von wichtigen Entscheidungen ab
- Microsoft nennt Passagen ‚veraltet‘ und plant Änderung
- Auch andere KI-Anbieter nutzen ähnliche Warnhinweise
Dass selbst Tech‑Konzerne davor warnen, KI‑Antworten blind zu glauben, sorgt derzeit für Wirbel: Microsofts Nutzungsregeln für Copilot — offenbar zuletzt aktualisiert am 24. Oktober 2025 — enthalten klare Hinweise, dass das Tool „nur zu Unterhaltungszwecken“ gedacht sei, Fehler machen könne und nicht für wichtige Entscheidungen genutzt werden sollte.
Im Dokument taucht sogar der englische Zusatz „Use Copilot at your own risk“ auf. Diese Formulierungen lösten in sozialen Medien Kritik und Spott aus.
Microsoft reagierte auf die Diskussion gegenüber PCMag und kündigte an, die betreffenden Passagen bei der nächsten Aktualisierung zu überarbeiten.
In der Stellungnahme bezeichnete das Unternehmen die entsprechenden Formulierungen als „veraltet“ und sagte, sie spiegelten nicht mehr wider, wie das Produkt heute verwendet werde. Konkrete Details zum Zeitplan der Überarbeitung nannte Microsoft nicht.
Die Formulierungen sind kein Einzelfall: Tom’s Hardware weist darauf hin, dass auch andere Anbieter ähnliche Hinweise in ihren Bedingungen haben.
OpenAI mahnt Nutzerinnen und Nutzer, Ergebnisse nicht als alleinige Quelle der Wahrheit zu betrachten; xAI warnt davor, die Ausgaben der eigenen Modelle als „die Wahrheit“ zu übernehmen. Solche Hinweise finden sich in Nutzungsbedingungen und Sicherheitstexten und betonen die prinzipielle Möglichkeit von Fehlern oder Ungenauigkeiten bei KI‑Modellen.
Für dich als Nutzer:
Die Warnungen stehen offen in den Texten der Anbieter und haben jetzt zusätzliche Aufmerksamkeit durch die öffentliche Debatte bekommen. Microsoft plant eine sprachliche Anpassung seiner Hinweise, andere Firmen behalten ähnliche Vorbehalte in ihren Regeln. Wie und wann genau die Formulierungen verändert werden, bleibt abzuwarten — die Diskussion über Verantwortung, Transparenz und Einsatzgebiete von KI läuft weiter.
Quellen
- Quelle: Microsoft
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




