Microsoft bezeichnet Copilot‑Disclaimer als veraltet – Formulierungen sorgen für Spott

06.04.2026 | Allgemein, KI

Microsofts Copilot-Text nannte das Tool ’nur zu Unterhaltungszwecken‘ — das löste Spott aus. Microsoft will Formulierungen überarbeiten.

In Kürze

  • Copilot-Disclaimer rät von wichtigen Entscheidungen ab
  • Microsoft nennt Passagen ‚veraltet‘ und plant Änderung
  • Auch andere KI-Anbieter nutzen ähnliche Warnhinweise

Dass selbst Tech‑Konzerne davor warnen, KI‑Antworten blind zu glauben, sorgt derzeit für Wirbel: Microsofts Nutzungsregeln für Copilot — offenbar zuletzt aktualisiert am 24. Oktober 2025 — enthalten klare Hinweise, dass das Tool „nur zu Unterhaltungszwecken“ gedacht sei, Fehler machen könne und nicht für wichtige Entscheidungen genutzt werden sollte.

Im Dokument taucht sogar der englische Zusatz „Use Copilot at your own risk“ auf. Diese Formulierungen lösten in sozialen Medien Kritik und Spott aus.

Microsoft reagierte auf die Diskussion gegenüber PCMag und kündigte an, die betreffenden Passagen bei der nächsten Aktualisierung zu überarbeiten.

In der Stellungnahme bezeichnete das Unternehmen die entsprechenden Formulierungen als „veraltet“ und sagte, sie spiegelten nicht mehr wider, wie das Produkt heute verwendet werde. Konkrete Details zum Zeitplan der Überarbeitung nannte Microsoft nicht.

Die Formulierungen sind kein Einzelfall: Tom’s Hardware weist darauf hin, dass auch andere Anbieter ähnliche Hinweise in ihren Bedingungen haben.

OpenAI mahnt Nutzerinnen und Nutzer, Ergebnisse nicht als alleinige Quelle der Wahrheit zu betrachten; xAI warnt davor, die Ausgaben der eigenen Modelle als „die Wahrheit“ zu übernehmen. Solche Hinweise finden sich in Nutzungsbedingungen und Sicherheitstexten und betonen die prinzipielle Möglichkeit von Fehlern oder Ungenauigkeiten bei KI‑Modellen.

Für dich als Nutzer:

Die Warnungen stehen offen in den Texten der Anbieter und haben jetzt zusätzliche Aufmerksamkeit durch die öffentliche Debatte bekommen. Microsoft plant eine sprachliche Anpassung seiner Hinweise, andere Firmen behalten ähnliche Vorbehalte in ihren Regeln. Wie und wann genau die Formulierungen verändert werden, bleibt abzuwarten — die Diskussion über Verantwortung, Transparenz und Einsatzgebiete von KI läuft weiter.

Quellen

  • Quelle: Microsoft
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Studie: KI-Modelle werden bei Angriffen rasant besser

Studie: KI-Modelle werden bei Angriffen rasant besser

Lyptus‑Studie übersetzt KI-Angriffsleistung in Zeitwerte und zeigt, wie schnell Modelle bei Exploits zulegen.In KürzeOffensive Leistung verdoppelt sich im Schnitt alle 9,8 Monate; seit 2024 ~5,7 MonateHöheres Token‑Budget steigert Erfolgsraten deutlich; METR misst das...

NYT beendet Zusammenarbeit nach KI‑kopierter Buchrezension

NYT beendet Zusammenarbeit nach KI‑kopierter Buchrezension

Die New York Times trennt sich von einem freien Autor, nachdem eine KI‑gestützte Rezension Passagen aus dem Guardian übernahm.In KürzeNYT sagt Zusammenarbeit mit Alex Preston auf wegen kopierter TextpassagenEin KI‑Tool übernahm offenbar Inhalte aus dem Guardian, das...