US-Handelsaufsicht fordert mehr Verantwortung von Tech-Giganten für KI-Schutz

13.09.2025 | Allgemein, KI

Die FTC richtet ihren Fokus auf große Tech-Unternehmen und deren Umgang mit KI-Risiken für Kinder und Jugendliche.

In Kürze

  • FTC fordert Informationen von Google, OpenAI und Meta
  • Kalifornien plant neue Gesetze für KI-Chatbots
  • OpenAI und Nvidia investieren in britische Rechenzentren

US-Handelsaufsicht fordert Informationen von großen Technologieunternehmen

Die US-Handelsaufsicht FTC hat die Aufmerksamkeit auf sieben große Technologieunternehmen gelenkt, darunter Google, OpenAI und Meta. Die Behörde fordert von diesen Firmen Informationen darüber, wie sie mit den Risiken von Künstlicher Intelligenz (KI) für Kinder und Jugendliche umgehen. Im Fokus steht die Frage, wie diese Unternehmen ihre KI-Systeme testen, überwachen und gegebenenfalls einschränken, um junge Nutzer zu schützen. Diese Initiative kommt im Zuge einer Klage, in der Eltern OpenAI zur Verantwortung ziehen, nachdem ihr Sohn nach der Nutzung von ChatGPT Suizid begangen hat.

Kalifornien plant neue Gesetze für KI-Companion-Chatbots

Parallel dazu plant Kalifornien, neue Gesetze für KI-Companion-Chatbots einzuführen. Diese digitalen Begleiter sollen strenger reguliert werden, um Missbrauch und potenzielle Risiken besser kontrollieren zu können. Ein Schritt, der zeigt, dass der Gesetzgeber die Verantwortung für den Schutz der Nutzer ernst nimmt.

Investitionen in britische Rechenzentren

Ein weiteres heißes Thema ist die milliardenschwere Investition von OpenAI und Nvidia in britische Rechenzentren. Diese Gelder sollen dazu dienen, die Kapazitäten für das Training und den Einsatz von KI-Modellen erheblich zu erweitern. Ein klarer Hinweis darauf, dass die beiden Unternehmen ihre Ambitionen im KI-Bereich weiter vorantreiben wollen.

Microsofts Unabhängigkeit im KI-Bereich

Microsoft hingegen hat kürzlich eigene KI-Modelle vorgestellt und zeigt damit, dass es sich zunehmend von der Zusammenarbeit mit OpenAI entfernt. Das Unternehmen plant, seine eigenen KI-Produkte stärker in den Vordergrund zu rücken und eigenständig weiterzuentwickeln. Ein Schritt, der die Konkurrenz im KI-Sektor weiter anheizen könnte.

Probleme bei Anthropic und Lizenzstreitigkeiten

Anthropic, ein weiteres Unternehmen im KI-Bereich, hat eingeräumt, dass es bei ihrem KI-Modell „Claude“ Qualitätsprobleme gab. Die Firma bestätigt damit die Beschwerden von Nutzern und zeigt, dass auch große Player nicht vor Herausforderungen gefeit sind. Zudem hat Anthropic eine Abfindung von 1,5 Milliarden US-Dollar an Buchautoren gezahlt, was auf Lizenzstreitigkeiten bezüglich der Nutzung von textbasierten Trainingsdaten zurückzuführen ist.

Innovativer Einsatz von KI in Albanien

In Albanien setzt Premier Rama eine virtuelle KI in der Regierung ein, um Korruption zu bekämpfen. Diese KI soll dabei helfen, Entscheidungen von Behörden zu überwachen und die Effizienz in der Verwaltung zu steigern. Ein innovativer Ansatz, der zeigt, wie KI auch im öffentlichen Sektor eingesetzt werden kann, um positive Veränderungen herbeizuführen.

Quellen

  • Quelle: US-Handelsaufsicht FTC
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…