Apples Kritik an Sprachmodellen: Können sie wirklich denken?

20.06.2025 | Allgemein, KI

Apple stellt die Denkfähigkeiten großer Sprachmodelle in Frage und entfacht eine hitzige Debatte unter Experten.

In Kürze

  • Apple kritisiert die Problemlösungsfähigkeiten von LLMs.
  • KI-Forscher Lawrence Chan widerspricht und sieht Potenzial.
  • Ein fehlerhaftes Antwortpapier sorgt für Aufsehen.

Apple’s Research on Large Language Models

Apple recently put the cognitive abilities of large language models (LLMs) to the test in a research paper titled „The Illusion of Thinking.“ The core message? While these models can recognize patterns, they lack the ability for generalizable thinking. An example Apple cites is the classic Tower of Hanoi puzzle, which illustrates the limitations of LLMs in problem-solving.

Expert Reactions and Criticism

This claim has sparked a lively discussion among experts. AI researcher Lawrence Chan is one of the critics who views Apple’s perspective as too one-sided. Chan argues that language models are indeed capable of solving complex problems, albeit in a different manner than humans. He compares the functioning of these models to the human use of heuristics, where one relies on experience and abstraction instead of grappling with complicated equations.

A Controversial Response

Amidst this debate, another paper intended as a response to Apple’s theses caused a stir—not for the reasons its author, Alex Lawsen, intended. He admitted that his contribution was riddled with errors and should not be taken seriously. Nevertheless, the paper gained traction on social media and was regarded as a serious response to Apple’s critique.

The Central Question

The discussion ultimately revolves around a central question: Is it about whether these models can execute a specific algorithm precisely, or rather whether their strategies are applicable to complex, real-world problems? This question remains open and will continue to shape the debate on the capabilities of AI models.

Quellen

  • Quelle: Apple
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Neue Richtlinien für KI: Denkprozesse effizienter gestalten

Neue Richtlinien für KI: Denkprozesse effizienter gestalten

Ein Forscherteam hat neue Richtlinien entwickelt, um unlogische Denkmuster bei KI-Modellen zu beheben.In KürzeNeue „Laws of Reasoning“ formuliertKI benötigt mehr Zeit für einfache AufgabenTrainingsmethoden steigern Effizienz um bis zu 11,2 Prozent Einführung in die...

Creators Coalition on AI: Künstler fordern klare KI-Standards

Creators Coalition on AI: Künstler fordern klare KI-Standards

Die neue "Creators Coalition on AI" setzt sich für klare Regeln im Umgang mit KI in der Unterhaltungsindustrie ein.In KürzeProminente Künstler unterstützen die InitiativeForderung nach fairer Bezahlung für TrainingsdatenSchutz von Arbeitsplätzen und menschlicher...