Über 200 Experten fordern globale Regeln für Künstliche Intelligenz

23.09.2025 | Allgemein, KI

Eine internationale Gruppe von Experten fordert strikte Regeln für KI, um gefährliche Anwendungen zu verhindern.

In Kürze

  • Über 200 Experten setzen sich für globale KI-Regeln ein
  • Rote Linien sollen unkontrollierbare Risiken vermeiden
  • Internationale Einigung bis Ende 2026 angestrebt

Forderung nach globalen „roten Linien“ für Künstliche Intelligenz

Eine Gruppe von über 200 internationalen Expert:innen, darunter ehemalige Staatsoberhäupter, Nobelpreisträger und führende Köpfe der KI-Branche, hat sich zusammengetan, um eine globale Einigung über strikte „rote Linien“ für Künstliche Intelligenz (KI) zu fordern. Diese Regeln sollen sicherstellen, dass KI-Anwendungen bestimmte moralisch und gesellschaftlich kritische Handlungen, wie das Nachahmen von Menschen oder Selbstreplikation, niemals ausführen. Zu den prominenten Unterstützern dieser Initiative gehört unter anderem Geoffrey Hinton, Mitbegründer von OpenAI und renommierter Wissenschaftler auf dem Gebiet der KI.

Ziel der Initiative

Das Ziel dieser Initiative ist klar: Bis Ende 2026 soll ein internationales Abkommen erwirkt werden, das präventiv große, unkontrollierbare Risiken vermeiden soll. Diese Forderung wurde auch bei der 80. Generalversammlung der Vereinten Nationen in New York lautstark unterstützt. Die Initiatoren setzen darauf, dass sich die Länder zumindest darauf einigen, was KI nicht tun darf, auch wenn noch keine Einigkeit darüber besteht, wie KI konkret genutzt werden soll.

Bestehende Vorschriften und zukünftige Institutionen

Bereits bestehende regionale Vorschriften, wie das KI-Gesetz der Europäischen Union, das bestimmte Anwendungen als „unzulässig“ klassifiziert, verdeutlichen die Dringlichkeit solcher Regelungen. Langfristig wird eine unabhängige globale Institution gefordert, die diese roten Linien überwacht und durchsetzt. Stuart Russell, ein führender KI-Forscher, hebt hervor, dass Sicherheitsüberlegungen von Anfang an Teil der KI-Entwicklung sein sollten – ähnlich wie bei der Entwicklung von Atomkraftwerken.

Wirtschaftliche Innovation und Sicherheit

Die angestrebten „roten Linien“ sollen dabei nicht als Hemmnis für wirtschaftliche Innovationen wirken. Vielmehr geht es darum, KI verantwortungsvoll und sicher zu entwickeln, ohne dabei unkalkulierbare Risiken einzugehen.

Quellen

  • Quelle: Global Call for AI Red Lines initiative
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Anthropic launcht KI-Plattform für die Pharmaforschung

Anthropic launcht KI-Plattform für die Pharmaforschung

Anthropic präsentiert "Claude for Life Sciences", eine KI-Plattform zur Optimierung der Pharmaforschung.In KürzeNeue KI-Plattform beschleunigt MedikamentenentwicklungDirekte Verknüpfung mit Datenbanken und Labor-ToolsPharmakonzerne setzen bereits auf Claude...