OpenAI passt seine Sicht auf künstliche allgemeine Intelligenz an und setzt auf einen schrittweisen Ansatz zur Sicherheit und Kontrolle.
In Kürze
- OpenAI verfolgt einen kontinuierlichen Ansatz für AGI statt eines plötzlichen Durchbruchs.
- Fokus auf Sicherheitsmaßnahmen basierend auf realen Erfahrungen mit KI-Systemen.
- Vertrag mit Microsoft definiert AGI ökonomisch anhand von Leistungskennzahlen.
OpenAI’s Sichtweise auf Künstliche Allgemeine Intelligenz (AGI)
OpenAI hat seine Sichtweise auf **künstliche allgemeine Intelligenz (AGI)** angepasst und verfolgt nun einen schrittweisen Ansatz, anstatt auf einen plötzlichen Durchbruch zu setzen. Früher war die Vorstellung verbreitet, dass AGI plötzlich mit übermenschlichen Fähigkeiten auftaucht. Heute betrachtet OpenAI diesen Prozess als langsamer und kontinuierlicher, was sich auch in ihrer Sicherheitsstrategie widerspiegelt.
Sicherheitsmaßnahmen basierend auf realen Erfahrungen
Anstatt hypothetische Szenarien zu entwickeln, legt OpenAI den Fokus auf Sicherheitsmaßnahmen, die auf realen Erfahrungen mit bestehenden KI-Systemen basieren. Ziel ist es, dass diese Sicherheitsvorkehrungen mit der zunehmenden Leistungsfähigkeit der KI an Robustheit gewinnen. Ein Beispiel dafür ist ein neues Sicherheitssystem, das sich an den Fortschritt der KI anpasst und mit ihm Schritt hält.
Rückblick auf das Jahr 2019
Ein Rückblick auf das Jahr 2019 zeigt, dass OpenAI in der Vergangenheit vorsichtiger agierte, als sie GPT-2 aufgrund von Bedenken hinsichtlich des Missbrauchs nicht sofort veröffentlichten. Diese Zurückhaltung war geprägt von der damaligen Vorstellung eines abrupten AGI-Durchbruchs.
Kontrolle über leistungsstarke KI-Systeme
Ein zentrales Anliegen von OpenAI ist es, sicherzustellen, dass Menschen die Kontrolle über leistungsstarke KI-Systeme behalten. Die Entscheidungen darüber, wie KI eingesetzt wird, sollen von gesellschaftlichen Werten geleitet werden. OpenAI arbeitet an Mechanismen, die es den Menschen ermöglichen, ihre Absichten klar zu kommunizieren und die KI effektiv zu steuern.
Ökonomische Definition von AGI
Besonders bemerkenswert ist, dass OpenAI in einem Vertrag mit Microsoft AGI ökonomisch definiert hat. Demnach gilt ein System als AGI, wenn es in den meisten wirtschaftlich relevanten Aufgaben besser abschneidet als Menschen und dabei mindestens 100 Milliarden Dollar Gewinn erzielt.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.