Die FTC richtet ihren Fokus auf große Tech-Unternehmen und deren Umgang mit KI-Risiken für Kinder und Jugendliche.
In Kürze
- FTC fordert Informationen von Google, OpenAI und Meta
- Kalifornien plant neue Gesetze für KI-Chatbots
- OpenAI und Nvidia investieren in britische Rechenzentren
US-Handelsaufsicht fordert Informationen von großen Technologieunternehmen
Die US-Handelsaufsicht FTC hat die Aufmerksamkeit auf sieben große Technologieunternehmen gelenkt, darunter Google, OpenAI und Meta. Die Behörde fordert von diesen Firmen Informationen darüber, wie sie mit den Risiken von Künstlicher Intelligenz (KI) für Kinder und Jugendliche umgehen. Im Fokus steht die Frage, wie diese Unternehmen ihre KI-Systeme testen, überwachen und gegebenenfalls einschränken, um junge Nutzer zu schützen. Diese Initiative kommt im Zuge einer Klage, in der Eltern OpenAI zur Verantwortung ziehen, nachdem ihr Sohn nach der Nutzung von ChatGPT Suizid begangen hat.
Kalifornien plant neue Gesetze für KI-Companion-Chatbots
Parallel dazu plant Kalifornien, neue Gesetze für KI-Companion-Chatbots einzuführen. Diese digitalen Begleiter sollen strenger reguliert werden, um Missbrauch und potenzielle Risiken besser kontrollieren zu können. Ein Schritt, der zeigt, dass der Gesetzgeber die Verantwortung für den Schutz der Nutzer ernst nimmt.
Investitionen in britische Rechenzentren
Ein weiteres heißes Thema ist die milliardenschwere Investition von OpenAI und Nvidia in britische Rechenzentren. Diese Gelder sollen dazu dienen, die Kapazitäten für das Training und den Einsatz von KI-Modellen erheblich zu erweitern. Ein klarer Hinweis darauf, dass die beiden Unternehmen ihre Ambitionen im KI-Bereich weiter vorantreiben wollen.
Microsofts Unabhängigkeit im KI-Bereich
Microsoft hingegen hat kürzlich eigene KI-Modelle vorgestellt und zeigt damit, dass es sich zunehmend von der Zusammenarbeit mit OpenAI entfernt. Das Unternehmen plant, seine eigenen KI-Produkte stärker in den Vordergrund zu rücken und eigenständig weiterzuentwickeln. Ein Schritt, der die Konkurrenz im KI-Sektor weiter anheizen könnte.
Probleme bei Anthropic und Lizenzstreitigkeiten
Anthropic, ein weiteres Unternehmen im KI-Bereich, hat eingeräumt, dass es bei ihrem KI-Modell „Claude“ Qualitätsprobleme gab. Die Firma bestätigt damit die Beschwerden von Nutzern und zeigt, dass auch große Player nicht vor Herausforderungen gefeit sind. Zudem hat Anthropic eine Abfindung von 1,5 Milliarden US-Dollar an Buchautoren gezahlt, was auf Lizenzstreitigkeiten bezüglich der Nutzung von textbasierten Trainingsdaten zurückzuführen ist.
Innovativer Einsatz von KI in Albanien
In Albanien setzt Premier Rama eine virtuelle KI in der Regierung ein, um Korruption zu bekämpfen. Diese KI soll dabei helfen, Entscheidungen von Behörden zu überwachen und die Effizienz in der Verwaltung zu steigern. Ein innovativer Ansatz, der zeigt, wie KI auch im öffentlichen Sektor eingesetzt werden kann, um positive Veränderungen herbeizuführen.
Quellen
- Quelle: US-Handelsaufsicht FTC
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




