Künstliche Intelligenz als Machtinstrument: Rainer Mühlhoff warnt vor Risiken

11.11.2025 | Allgemein, KI

Rainer Mühlhoff warnt vor den Gefahren der Künstlichen Intelligenz und deren Einfluss auf unsere Gesellschaft.

In Kürze

  • KI als Machtinstrument, das bestehende Ungleichheiten verstärken kann
  • Vorhersagemacht von KI: Risiken für Privatsphäre und Ethik
  • Forderung nach strengerer Regulierung und mehr Transparenz

Künstliche Intelligenz als Machtinstrument

Der Philosoph und Mathematiker Rainer Mühlhoff hat auf einer aktuellen Veranstaltung eindringlich darauf hingewiesen, dass Künstliche Intelligenz (KI) weit mehr ist als nur ein nützliches Werkzeug. Er sieht sie als ein Machtinstrument, das tief in unsere gesellschaftlichen Strukturen eingreift und bestehende Machtverhältnisse verstärken kann. Mühlhoff äußerte Bedenken, dass KI nicht nur politische und soziale Ungleichheiten vertiefen könnte, sondern auch die sogenannte „Vorhersagemacht“ besitzt – die Fähigkeit, aus Daten unbekannte Informationen über Individuen vorherzusagen. Diese Vorhersagen reichen von personalisierter Werbung bis hin zu Diagnosen psychischer Erkrankungen und können sogar ohne das Wissen oder die Zustimmung der Betroffenen erfolgen.

Maschinelle Intelligenz und digitale Ausbeutung

Ein zentraler Punkt in Mühlhoffs Argumentation ist, dass wir KI nicht lediglich als „maschinelle Intelligenz“ betrachten sollten. Menschliche Arbeit und Interaktion sind tief in die Systeme integriert, was zu einer neuen Form der digitalen Ausbeutung führt. Diese Ausbeutung ist nicht nur ethisch bedenklich, sondern auch mit einem hohen Ressourcenverbrauch verbunden. Mühlhoff fordert daher eine strengere Regulierung, um zu verhindern, dass KI-Modelle unkontrolliert für andere Zwecke verwendet werden, als ursprünglich vorgesehen.

Die Rolle großer Technologiekonzerne

Besonders kritisch sieht er die Rolle großer Technologiekonzerne wie Meta (ehemals Facebook). Diese Unternehmen nutzen trotz bestehender Datenschutzbedenken umfangreiche Daten, um ihre KI-Modelle zu trainieren. Besonders Kinder und Jugendliche sind hiervon betroffen, da ihre Daten oft unbemerkt in die Trainingssysteme einfließen. Mühlhoff plädiert für mehr Transparenz und unabhängige Kontrolle, um wirksame Schutzmaßnahmen zu gewährleisten und die Privatsphäre der Nutzer zu schützen.

Quellen

  • Quelle: Rainer Mühlhoff, Professor für Ethik und kritische Theorien der Künstlichen Intelligenz
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

OpenAI startet Academy für Journalisten: KI im Fokus

OpenAI startet Academy für Journalisten: KI im Fokus

OpenAI hat eine neue Plattform für Journalisten ins Leben gerufen, um den Einsatz von KI in der Medienbranche zu fördern.In KürzeNeue Bildungsplattform für Journalisten und HerausgeberFlexible Schulungen und praxisnahe BeispieleDiskussion über KI-Einsatz und...

OpenAI und Anthropic: Sicherheit für Jugendliche im Fokus

OpenAI und Anthropic: Sicherheit für Jugendliche im Fokus

OpenAI und Anthropic verbessern ihre KI-Systeme für Jugendliche. Sicherheit hat höchste Priorität.In KürzeOpenAI überarbeitet ChatGPT-Richtlinien für Nutzer von 13 bis 17 JahrenAltersverifizierung für Erwachsene zur Vermeidung von MissverständnissenAnthropic blockiert...