Philosoph warnt: KI ist kein neutrales Werkzeug, sondern Machtinstrument
Angelo BriemerPhilosoph warnt: KI ist kein neutrales Werkzeug, sondern Machtinstrument
Der Philosoph Rainer Mühlhoff stellt die Vorstellung von KI als neutralem Werkzeug infrage. Auf der KI-Woche des Landesbeauftragten für Datenschutz in Baden-Württemberg warnte er, dass künstliche Intelligenz aktiv mitgestaltet, wie sie genutzt wird – und wer die Macht über sie ausübt. Seine Kritik erstreckte sich auf die ethischen Risiken der Datenherrschaft sowie die ideologischen Einflüsse hinter der KI-Entwicklung.
Mühlhoff argumentierte, KI dürfe nicht als "maschinelle Intelligenz", sondern als "vom Menschen unterstützte KI" verstanden werden. Er betonte, dass Technologie niemals neutral sei, sondern die Interessen derer verstärke, die sie kontrollieren. Diese Perspektive liegt seinen Bedenken hinsichtlich Datenextraktion und Web-Scraping zugrunde, wo er eine genauere Prüfung forderte: Wer verarbeitet Informationen – und zu welchem Zweck?
Große KI-Modelle wie ChatGPT können ungewollt personenbezogene Daten aus ihren Trainingsdaten speichern und preisgeben. Mühlhoff wies darauf hin, dass davon selbst Kinder und Jugendliche betroffen sein können, selbst wenn ihre Daten nicht gezielt einbezogen wurden. Als Gegenmaßnahme schlug er vor, das Prinzip der Zweckbindung – ein zentraler Grundsatz des Datenschutzes – auf trainierte KI-Systeme auszuweiten, um sekundäre Verwendungen der gespeicherten Daten zu verhindern. Der Philosoph verfolgte zudem die ideologischen Wurzeln der KI-Eliten bis zu Strömungen wie Transhumanismus und Langzeitdenken. Er warnte, dass diese Weltanschauungen zu eugenischen, elitistischen und undemokratischen Folgen führen können.
Über die Datenschutzrisiken hinaus verwies Mühlhoff auf die wachsende Rolle der KI in politischer Machtausübung und Propaganda, wo ihre prädiktiven Fähigkeiten neue Formen der Dominanz schaffen. Seine Kritik reiht sich in die breitere akademische Debatte über KI-Ethik ein. Forscher wie Prof. Vincent C. Müller, der an der Friedrich-Alexander-Universität Erlangen-Nürnberg die gesellschaftlichen Auswirkungen von KI untersucht, setzen sich ebenfalls mit Fragen wie verantwortungsvoller Entwicklung und dem moralischen Status von KI-Systemen auseinander. Mühlhoffs Warnungen zielten jedoch besonders auf die Konzentration von Macht – und die Notwendigkeit stärkerer Schutzmechanismen.
Seine Argumente fordern strengere Kontrollen der KI-Datenpraktiken und ein Umdenken über ihre gesellschaftliche Rolle. Indem er KI als Instrument der Einflussnahme und nicht als passives System darstellt, plädiert er für mehr Verantwortung. Seine Vorschläge, darunter Zweckbindungen für trainierte Modelle, sollen die Risiken von Datenmissbrauch und ideologischer Voreingenommenheit in aufstrebenden Technologien eindämmen.