Offene KI-Modelle: Hoher Tokenverbrauch kann Kosten in die Höhe treiben

24.08.2025 | Allgemein, KI

Eine neue Analyse zeigt, dass offene KI-Modelle oft ineffizienter sind als geschlossene. Das hat Auswirkungen auf die Kosten.

In Kürze

  • Offene KI-Modelle benötigen mehr Token für Antworten
  • Hoher Verbrauch kann Kosten trotz niedrigerer Tokenpreise steigern
  • Effizienz variiert je nach Aufgabenstellung

Offene KI-Modelle und ihre Bedeutung

Offene KI-Modelle, die als „Reasoning-Modelle“ bekannt sind, haben in der letzten Zeit für Aufsehen gesorgt. Eine aktuelle Analyse von Nous Research zeigt, dass diese Modelle oft deutlich mehr Wörter oder sogenannte Token benötigen, bevor sie eine Antwort liefern. Im Vergleich zu geschlossenen Modellen wie Grok-4 von OpenAI verwenden sie bis zu drei- bis viermal mehr Token. Das klingt zunächst nach einer harmlosen Zahl, hat aber weitreichende Folgen für die Kosten.

Warum ist das wichtig?

Ganz einfach: Obwohl die Tokenpreise für offene Modelle niedriger sein mögen, kann der höhere Verbrauch bei einfachen Fragen die Gesamtkosten in die Höhe treiben. Diese Modelle neigen dazu, unnötige Zwischenschritte einzufügen, was die Effizienz in Frage stellt. Wenn du also denkst, dass du mit einem offenen KI-Modell Geld sparst, könnte sich das als Trugschluss herausstellen.

Effizienz in offenen Modellen

Ein positives Beispiel für Effizienz liefert das OpenAI-Modell gpt-oss-120b. Es zeigt, dass Open-Source-Modelle durchaus in der Lage sind, mit kurzen Denkpfaden zu arbeiten, insbesondere bei mathematischen Aufgaben. Hier wird deutlich, dass nicht alle offenen Modelle gleich sind – es kommt stark auf die Art der Aufgabe an.

Mistrals Magistral und seine Herausforderungen

Ein weiteres Modell, das in der Diskussion steht, ist Mistrals Magistral. Es fällt durch seinen hohen Tokenverbrauch auf, was die Frage aufwirft, wie sinnvoll der Einsatz solcher Modelle ist, wenn die Kosten in die Höhe schnellen.

Fazit zur Effizienz von KI-Modellen

Insgesamt zeigt sich, dass die Effizienz in Bezug auf den Tokenverbrauch stark von der jeweiligen Aufgabe abhängt. Während die Basispreise für Open-Source-Modelle verlockend erscheinen, könnte der höhere Tokenverbrauch sie letztlich teurer machen, als man zunächst denkt.

Quellen

  • Quelle: Nous Research
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Google Quantum AI: Neuer Chip revolutioniert Molekülanalyse

Google Quantum AI: Neuer Chip revolutioniert Molekülanalyse

Google Quantum AI hat mit dem Willow-Chip einen Durchbruch im Quantencomputing erzielt, der die Forschung revolutionieren könnte.In KürzeWillow-Chip analysiert Molekülstrukturen 13.000-mal schneller als klassische SupercomputerErgebnisse wissenschaftlich verifiziert...