Eine internationale Gruppe von Experten fordert strikte Regeln für KI, um gefährliche Anwendungen zu verhindern.
In Kürze
- Über 200 Experten setzen sich für globale KI-Regeln ein
- Rote Linien sollen unkontrollierbare Risiken vermeiden
- Internationale Einigung bis Ende 2026 angestrebt
Forderung nach globalen „roten Linien“ für Künstliche Intelligenz
Eine Gruppe von über 200 internationalen Expert:innen, darunter ehemalige Staatsoberhäupter, Nobelpreisträger und führende Köpfe der KI-Branche, hat sich zusammengetan, um eine globale Einigung über strikte „rote Linien“ für Künstliche Intelligenz (KI) zu fordern. Diese Regeln sollen sicherstellen, dass KI-Anwendungen bestimmte moralisch und gesellschaftlich kritische Handlungen, wie das Nachahmen von Menschen oder Selbstreplikation, niemals ausführen. Zu den prominenten Unterstützern dieser Initiative gehört unter anderem Geoffrey Hinton, Mitbegründer von OpenAI und renommierter Wissenschaftler auf dem Gebiet der KI.
Ziel der Initiative
Das Ziel dieser Initiative ist klar: Bis Ende 2026 soll ein internationales Abkommen erwirkt werden, das präventiv große, unkontrollierbare Risiken vermeiden soll. Diese Forderung wurde auch bei der 80. Generalversammlung der Vereinten Nationen in New York lautstark unterstützt. Die Initiatoren setzen darauf, dass sich die Länder zumindest darauf einigen, was KI nicht tun darf, auch wenn noch keine Einigkeit darüber besteht, wie KI konkret genutzt werden soll.
Bestehende Vorschriften und zukünftige Institutionen
Bereits bestehende regionale Vorschriften, wie das KI-Gesetz der Europäischen Union, das bestimmte Anwendungen als „unzulässig“ klassifiziert, verdeutlichen die Dringlichkeit solcher Regelungen. Langfristig wird eine unabhängige globale Institution gefordert, die diese roten Linien überwacht und durchsetzt. Stuart Russell, ein führender KI-Forscher, hebt hervor, dass Sicherheitsüberlegungen von Anfang an Teil der KI-Entwicklung sein sollten – ähnlich wie bei der Entwicklung von Atomkraftwerken.
Wirtschaftliche Innovation und Sicherheit
Die angestrebten „roten Linien“ sollen dabei nicht als Hemmnis für wirtschaftliche Innovationen wirken. Vielmehr geht es darum, KI verantwortungsvoll und sicher zu entwickeln, ohne dabei unkalkulierbare Risiken einzugehen.
Quellen
- Quelle: Global Call for AI Red Lines initiative
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.