OpenAI überarbeitet AGI-Strategie: Schritt für Schritt statt plötzlicher Durchbruch

07.03.2025 | KI

OpenAI passt seine Sicht auf künstliche allgemeine Intelligenz an und setzt auf einen schrittweisen Ansatz zur Sicherheit und Kontrolle.

In Kürze

  • OpenAI verfolgt einen kontinuierlichen Ansatz für AGI statt eines plötzlichen Durchbruchs.
  • Fokus auf Sicherheitsmaßnahmen basierend auf realen Erfahrungen mit KI-Systemen.
  • Vertrag mit Microsoft definiert AGI ökonomisch anhand von Leistungskennzahlen.

OpenAI’s Sichtweise auf Künstliche Allgemeine Intelligenz (AGI)

OpenAI hat seine Sichtweise auf **künstliche allgemeine Intelligenz (AGI)** angepasst und verfolgt nun einen schrittweisen Ansatz, anstatt auf einen plötzlichen Durchbruch zu setzen. Früher war die Vorstellung verbreitet, dass AGI plötzlich mit übermenschlichen Fähigkeiten auftaucht. Heute betrachtet OpenAI diesen Prozess als langsamer und kontinuierlicher, was sich auch in ihrer Sicherheitsstrategie widerspiegelt.

Sicherheitsmaßnahmen basierend auf realen Erfahrungen

Anstatt hypothetische Szenarien zu entwickeln, legt OpenAI den Fokus auf Sicherheitsmaßnahmen, die auf realen Erfahrungen mit bestehenden KI-Systemen basieren. Ziel ist es, dass diese Sicherheitsvorkehrungen mit der zunehmenden Leistungsfähigkeit der KI an Robustheit gewinnen. Ein Beispiel dafür ist ein neues Sicherheitssystem, das sich an den Fortschritt der KI anpasst und mit ihm Schritt hält.

Rückblick auf das Jahr 2019

Ein Rückblick auf das Jahr 2019 zeigt, dass OpenAI in der Vergangenheit vorsichtiger agierte, als sie GPT-2 aufgrund von Bedenken hinsichtlich des Missbrauchs nicht sofort veröffentlichten. Diese Zurückhaltung war geprägt von der damaligen Vorstellung eines abrupten AGI-Durchbruchs.

Kontrolle über leistungsstarke KI-Systeme

Ein zentrales Anliegen von OpenAI ist es, sicherzustellen, dass Menschen die Kontrolle über leistungsstarke KI-Systeme behalten. Die Entscheidungen darüber, wie KI eingesetzt wird, sollen von gesellschaftlichen Werten geleitet werden. OpenAI arbeitet an Mechanismen, die es den Menschen ermöglichen, ihre Absichten klar zu kommunizieren und die KI effektiv zu steuern.

Ökonomische Definition von AGI

Besonders bemerkenswert ist, dass OpenAI in einem Vertrag mit Microsoft AGI ökonomisch definiert hat. Demnach gilt ein System als AGI, wenn es in den meisten wirtschaftlich relevanten Aufgaben besser abschneidet als Menschen und dabei mindestens 100 Milliarden Dollar Gewinn erzielt.

Quellen

  • Quelle: OpenAI
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Nvidia öffnet Warp: Python-Framework jetzt Open Source

Nvidia öffnet Warp: Python-Framework jetzt Open Source

Nvidia hat sein Python-Framework Warp unter die Open-Source-Lizenz Apache 2 gestellt und reagiert damit auf Community-Kritik.In KürzeWarp wandelt Python-Funktionen in Echtzeit in Code um.Das Framework unterstützt sowohl x86- als auch CUDA-GPUs.Integration in...