MIT-Forscher optimieren KI-Rechenressourcen für mehr Effizienz

05.12.2025 | Allgemein, KI

Eine neue Methode am MIT ermöglicht es großen Sprachmodellen, Rechenressourcen dynamisch anzupassen und effizienter zu arbeiten.

In Kürze

  • LLMs passen Rechenleistung an die Komplexität von Aufgaben an
  • Bis zu 50% weniger Rechenleistung ohne Genauigkeitsverlust
  • Kooperationen mit IBM, Amazon und Google unterstützen die Forschung

Forscher am MIT entwickeln neue Methode zur Effizienzsteigerung von Sprachmodellen

Forscher am MIT haben eine spannende neue Methode entwickelt, die großen Sprachmodellen (LLMs) hilft, ihre Rechenressourcen effizienter zu nutzen. Bisher war es so, dass jedem Problem ein festes Budget an Rechenleistung zugewiesen wurde, unabhängig davon, wie komplex die Aufgabe war. Das führte oft dazu, dass die Modelle entweder viel Zeit mit einfachen Fragen verschwenden oder nicht genug Ressourcen für schwierige Aufgaben hatten.

Dynamische Anpassung der Berechnungsanstrengungen

Mit der neuen Technik können LLMs nun ihre Berechnungsanstrengungen dynamisch an die Schwierigkeit einer Frage anpassen. Das bedeutet, dass sie bis zu 50 Prozent weniger Rechenleistung benötigen, ohne dabei an Genauigkeit einzubüßen. Kleinere und weniger ressourcenintensive Modelle können bei komplexen Aufgaben genauso gut oder sogar besser abschneiden als ihre größeren Pendants.

Neues Kalibrierungsverfahren für „Process Reward Models“ (PRMs)

Ein weiterer interessanter Aspekt dieser Forschung ist das neu entwickelte Kalibrierungsverfahren für „Process Reward Models“ (PRMs). Dieses Verfahren hilft den Modellen, die Schwierigkeit einer Aufgabe realistischer einzuschätzen. Dadurch können sie ihre Rechenkraft gezielter einsetzen und den Energieverbrauch reduzieren. Besonders in Bereichen, in denen Zuverlässigkeit und Effizienz entscheidend sind, wie bei zeitkritischen Prozessen oder komplexen KIs, könnten diese Fortschritte von großem Nutzen sein.

Zukunftsperspektiven und Kooperationen

Die MIT-Forscher sind überzeugt, dass ihre Arbeit auch dazu beitragen könnte, LLMs und ähnliche KI-Modelle in Zukunft adaptiver zu machen. Das bedeutet, dass diese Systeme besser lernen und sich selbst weiterentwickeln könnten – ähnlich wie menschliche Mitarbeiter. Ein Schritt in Richtung KIs, die sich in neuen Situationen sicher bewegen und konsistente Ergebnisse liefern können. Unterstützt wird die Forschung des MIT-Teams durch Kooperationen mit großen Unternehmen wie IBM, Amazon und Google.

Quellen

  • Quelle: Massachusetts Institute of Technology
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Yann LeCun verlässt Meta für neues KI-Startup AMI

Yann LeCun verlässt Meta für neues KI-Startup AMI

Yann LeCun, KI-Pionier, startet ein neues Abenteuer mit AMI, einem Startup für World Models.In KürzeLeCun kritisiert bestehende SprachmodelleAMI soll ein neues Verständnis der physischen Welt entwickelnInternationale Talente und Standort in Paris geplant Yann LeCun...