Apples Kritik an Sprachmodellen: Können sie wirklich denken?

20.06.2025 | Allgemein, KI

Apple stellt die Denkfähigkeiten großer Sprachmodelle in Frage und entfacht eine hitzige Debatte unter Experten.

In Kürze

  • Apple kritisiert die Problemlösungsfähigkeiten von LLMs.
  • KI-Forscher Lawrence Chan widerspricht und sieht Potenzial.
  • Ein fehlerhaftes Antwortpapier sorgt für Aufsehen.

Apple’s Research on Large Language Models

Apple recently put the cognitive abilities of large language models (LLMs) to the test in a research paper titled „The Illusion of Thinking.“ The core message? While these models can recognize patterns, they lack the ability for generalizable thinking. An example Apple cites is the classic Tower of Hanoi puzzle, which illustrates the limitations of LLMs in problem-solving.

Expert Reactions and Criticism

This claim has sparked a lively discussion among experts. AI researcher Lawrence Chan is one of the critics who views Apple’s perspective as too one-sided. Chan argues that language models are indeed capable of solving complex problems, albeit in a different manner than humans. He compares the functioning of these models to the human use of heuristics, where one relies on experience and abstraction instead of grappling with complicated equations.

A Controversial Response

Amidst this debate, another paper intended as a response to Apple’s theses caused a stir—not for the reasons its author, Alex Lawsen, intended. He admitted that his contribution was riddled with errors and should not be taken seriously. Nevertheless, the paper gained traction on social media and was regarded as a serious response to Apple’s critique.

The Central Question

The discussion ultimately revolves around a central question: Is it about whether these models can execute a specific algorithm precisely, or rather whether their strategies are applicable to complex, real-world problems? This question remains open and will continue to shape the debate on the capabilities of AI models.

Quellen

  • Quelle: Apple
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Energy-Based Transformer: Ein neuer Ansatz für KI-Modelle

Energy-Based Transformer: Ein neuer Ansatz für KI-Modelle

Eine innovative Technik namens Energy-Based Transformer könnte die KI-Welt revolutionieren.In KürzeEBTs lösen Probleme analytisch und schrittweiseEffizienter als herkömmliche KI-ModelleHerausforderung: Hoher Rechenaufwand beim Training Eine neue Technik: Energy-Based...