
No Limits für Künstliche Intelligenz? Eine Warnung
Ein Interview mit Rainer Mühlhoff, Professor für Ethik der Künstlichen Intelligenz am Institut für Kognitionswissenschaft und am Institut für Philosophie an der Universität Osnabrück. Im Juli erschien sein neues Buch: »Künstliche Intelligenz und der neue Faschismus« bei Reclam.
AStA-Zeitung: Ihr neues Buch heißt »Künstliche Intelligenz und der neue Faschismus«. Warum sehen Sie zwischen diesen beiden Entwicklungen eine Verbindung?
Rainer Mühlhoff: Die Idee ist entstanden, als Donald Trump das zweite Mal gewählt wurde und eine auffällige und auch qualitativ neue Allianz zwischen Alt-Right-Kräften und der US-amerikanischen Tech-Szene zu beobachten war. Schon im Wahlkampf haben sich zahlreiche Akteure im Silicon Valley offen als Verbündete des Trump-Lagers positioniert. Das war in der ersten Amtszeit noch nicht so. Einige Silicon-Valley-Unternehmen haben für lange Zeit eher progressiv klingende Grundsätze verfolgt, wie zum Beispiel das berühmte Motto von Google, »Don’t do evil«. Dass sie angesichts der großen Mengen an Daten, die sie über uns alle sammeln, und mit den steigenden Möglichkeiten der KI-Technologie dann doch irgendwann unternehmerische Entscheidungen treffen könnten, die zu einem Missbrauch dieser Daten und technischen Möglichkeit führt, war im Grunde klar. Die Tech-Giganten bargen immer das Risiko des Machtmissbrauchs – denn allein auf Willenserklärungen und Corporate Identity sollte man sich nicht verlassen, wenn es um so wichtige gesellschaftliche Fragen geht.
Und darin liegt ein möglicher neuer Faschismus?
In der heutigen Form ist Künstliche Intelligenz eine Technologie, die dafür gemacht wurde, Menschen automatisiert in Kategorien einzusortieren. Und so eine Technologie ist inhärent mit Machtinteressen verbunden. Nicht nur mit scheinbar harmlosen Interessen, wie zum Beispiel, uns effizienter Werbung anzuzeigen, sondern auch, um unsere psychologischen oder sozialen Vulnerabilitäten, unsere Sexualität, unsere politischen und religiösen Interessen abzuschätzen. KI-Technologie wird also für eine neue Form des Regierens durch Kontrolle eingesetzt: Jeder Mensch wird scheinbar individuell nach seinen Fähigkeiten und Leidenschaften (verdeckt: nach seinen Vulnerabilitäten und Schwachpunkten) behandelt – ein Regierungsstil, der auf dem algorithmischen Management von großen Menschenmassen beruht. So eine Technologie, die uns automatisch nach nahezu beliebigen Kriterien sortiert, hat ein inhärent faschistoides Potenzial.
Und das sehen Sie beispielhaft schon angewandt?
Mit dem, was wir jetzt bei Trumps »Behörde für Regierungseffizienz« (DOGE) sehen, müssen wir natürlich damit rechnen, dass genau diese Potenziale von KI auch genutzt werden: Zum Beispiel, wenn es darum geht, zu entscheiden, wessen Visa annulliert werden, wer keine Sozialleistungen mehr erhalten, wer in einem Detention Center festgehalten oder wer deportiert werden soll.
Auch private Akteure können hier faschistoide Interessen umsetzen: Insbesondere hat DOGE unter Elon Musk ja mit einer Art Überraschungstaktik in den ersten Tagen und Wochen nach der Machtübernahme bei zahlreichen Behörden große Datenmengen abgegriffen, die zusammengeführt und nun mutmaßlich bei privaten Akteuren verwaltet werden sollen. Das sind Daten, die aus guten Gründen dezentral gespeichert waren und einen erheblichen Schaden in der Form von Diskriminierung und Verfolgung für zahlreiche Menschen bedeuten können.
In Deutschland und Europa wird zur Zeit genauso nach Bürokratieabbau durch KI gerufen. Das ist sehr gefährlich. KI-Systeme und algorithmisches Entscheiden werden im Bereich des Sozialstaats getestet oder bereits benutzt, zum Beispiel im Asylwesen.
Trotz gewichtiger Einwände von Expert*innen wird hierzulande der Wunsch geäußert, Sachbearbeiter*innen im staatlichen Verwaltungsapparat durch KI-basiertes Entscheiden zu ersetzen, also durch probabilistische Mechanismen. In der Realität bedeutet die Einführung solcher Systeme, statistisch bedingte Fehler methodisch in Kauf zu nehmen – und diese Fehler treffen vor allem Personengruppen, die sich schwer wehren können, also besonders vulnerable Gruppen wie arme, kranke und oft migrantisierte Menschen.
Wieso charakterisieren Sie das als faschistoide Politik?
Unter Faschismus verstehe ich Politik, die drei Eigenschaften hat: Erstens ist das eine Politik, die auf Gewaltbereitschaft setzt. Sie will Minderheiten unterdrücken oder lang erkämpfte Minderheitenrechte wieder aberkennen und Menschen ausschließen. Dazu gehören insbesondere auch Gewaltmethoden wie Hassrede, Diffamierung, Doxing, psychische und physische Einschüchterung und Angriffe. Der zweite Punkt ist das Projekt, die liberale demokratische Grundordnung zu unterlaufen. Auf der Demokratieebene heißt das, dass man das agonistische Prinzip von politischer Streitkultur und Mehrheitsbildung nicht akzeptiert, sondern die anderen politischen Parteien als zu vernichtende Feinde auffasst. Auf der Ebene der Verwaltung läuft diese Politik darauf hinaus, elementare Grundrechte, wie das Recht auf ein faires Verfahren, und den Rechtsstaat als solchen zu unterwandern. Das geschieht in den USA derzeit in beängstigendem Tempo.
Die dritte Eigenschaft ist, dass sich der Faschismus – historisch wie gegenwärtig – meiner Auffassung nach durch ein besonderes Verhältnis zu Technologie auszeichnet: Faschismus eignet sich modernste Technologie als Machttechnologie an, um diese für die eigenen politischen Interessen zu nutzen. Das ist für mich eine schlagende Parallele zu Nazideutschland.
Worin genau liegt diese Parallele zu Nazideutschland?
Als Hitler wenige Wochen an der Macht war, hat er in Preußen eine große Volkszählung beauftragt, für den das Unternehmen IBM mit seiner Lochkarten-Technologie – einer Massendatenverarbeitungstechnologie, die damals relativ neu war – einen Großauftrag erhielt. Keine deutsche Institution konnte auf Papier einen Zensus mit so vielen Daten in so kurzer Zeit, wie Hitler es haben wollte, durchführen, daher brauchte es automatisierte Datenverarbeitung. Der US-amerikanische Journalist Edwin Black hat mit einer großen Studie im Jahr 2002 aufgedeckt, dass IBM über Jahre immer für die Nazis bereitstand, um maßgeschneiderte technologische Lösungen, auch zur Umsetzung der politischen Ziele des Regimes, anzufertigen. Jede Bahnstation, jede Behörde, jede Firma, jedes KZ im Nazideutschland hatte bald eine Lochkartenmaschine. Mittels dieser Datenverarbeitungstechnologie wurde dann unter anderem auch der Vernichtungsapparat der Nazis logistisch umgesetzt.
Faschisten suchen also schon immer die Nähe zur Technologie. Das könnte die eine Motivationsrichtung der Allianz zwischen dem Silicon Valley und dem Trumpismus erklären. Jetzt scheint es aber nicht nur so, dass die Faschisten KI suchen, sondern dass die KI-Visionäre sich dem Faschismus von sich aus anbiedern. Ist das im historischen Vergleich neu?
Ich glaube, die historische Parallele hört tatsächlich an dem Punkt auf, dass man heute in der KI-Industrie und bei den KI-Risikokapitalgeber*innen, mehr als damals bei IBM, die Verbreitung bestimmter teils sehr radikaler Ideologien feststellen muss. Timnit Gebru und Émile Torres haben das »TESCREAL-Ideologien-Bundle« genannt, denn da spielen verschiedene Strömungen hinein, von Transhumanismus, Longtermismus und Cyberlibertarismus, über die zur Zeit wieder auflebende Eugenik und den selektiven Natalismus, bis zu radikal anti-demokratischen Lehren wie »dunkle Aufklärung« und »Neo-Reaktion«, mit denen Leute wie Peter Thiel, Elon Musk und JD Vance teils offen sympathisieren. Auf KI gemünzt spielt bei allen diesen Weltbildern das Ziel der Entwicklung einer »Superintelligenz«, eines »Übermenschentums«, eine zentrale Rolle. Unternehmen wie OpenAI haben sich mit der Mission gegründet, eine »Superintelligenz« zu entwickeln.
In den genannten Denkrichtungen ist das Argument zentral, dass die Entwicklung von KI-Technologie eine Art »Naturkraft« sei, welche die menschliche Evolution wesentlich vorantreiben würde. Das sei ein Prozess, dem vermeintlich die Menschheit im Ganzen unterliege, und der in Richtung von »mehr Intelligenz« strebe. Dabei werden Diversität und Unterschiede zwischen Menschen essenzialisiert und als vermeintlich »natürliche« Hierarchien affirmiert, nicht nur entlang von Gender und ethnischer Zugehörigkeit, sondern beispielsweise auch entlang der ebenfalls hochgradig konstruierten Größe des »IQ«. So geht dieser Glaube an KI als angeblichen evolutionären Fortschritt letztlich mit einer techno-darwinistischen Selektion von Menschen einher; diese Denkrichtungen sind zutiefst rassistisch und eugenisch. Sie stehen damit in direkter Kontinuität zum ideologischen Gedankengut des 19. und 20. Jahrhunderts, auf das auch die Faschisten aufgebaut haben.
Mit dieser Technologiegläubigkeit fragt sich, wieso sie die Tech-Milliardäre mit den rückwärtsgewandten, reaktionär-konservativen politischen Kräften verbinden.
Die Schnittstelle zwischen Alt-Right und Tech-Kreisen sind die Tech-Ideologien, die es teilweise seit dem 20. Jahrhundert gibt (z.B. Transhumanismus). Die Überlappung zeigt sich besonders bei den Libertären und in den neueren Strömungen der Dark Enlightenment. Letzteres ist eine Lehre, wonach Demokratie evolutionär betrachtet ein Hindernis sei. Denn liberale Werte, die auf geteilten Wohlstand und Menschenrechte setzen, würden den vermeintlich natürlichen Gang der Evolution hin zu einem Supermenschen behindern. Darin konstruieren sie eine Legitimation zur Aushebelung des Rechtsstaats und der Demokratie und wollen allen Ernstes wieder eine Monarchie. Man sagt, die Dark Enlightenment sei die »Theorie-Sektion« der Alt-Right; und »King« Donald Trump ist folgerichtig. Die Idee wäre genauer gesagt, dass man zu sogenannten CEO-Monarchien übergeht. Die heutigen Eliten bilden den »Aufsichtsrat« solch eines Staat-Unternehmens, dieser wählt den CEO. Die Bevölkerung tritt in diesem Modell als »Kund:innen« auf. Kund:innen haben keine politischen Teilhaberechte und genießen keine Menschenrechte. Sie müssen im Austausch für Wohnraum Steuern zahlen und arbeiten. Wenn ihnen der CEO-Staat nicht passt, wird ihnen als einziges universelles Recht zugestanden, den Staat verlassen zu dürfen.
Vielleicht kann man da also eine vierte Parallele zum Faschismus sehen, nämlich die autoritäre Persönlichkeit. Also die autoritäre Vorstellung vom CEO als modernem Führer.
Das alles ist ultraautoritär. Es ist ein Personenkult.
In Bezug auf KI gilt dieser Kult aber nicht einer Person, sondern eher einem Supercomputer als perfektem Führer, oder?
Ich versuche, Anthropomorphisierungen von KI zu vermeiden. Es sind immer Menschen, die diese Technik anwenden. KI-Technologie ist eher ein Heilsversprechen. Das tritt an die Stelle des 1000-jährigen Reichs in der Nazi-Ideologie. Der Personenkult geht also auf einer anderen Ebene damit einher: Der Glaube an einen genialen Ingenieur oder CEO, der uns endlich den Weg zum technologischen Paradies zeigt.
Könnten wir KI trotz ihres faschistoiden Potentials für emanzipatorische Ziele nutzen?
KI-Technologie ist weder automatisch schlecht noch automatisch ein Heilsbringer, so wie es ihre Förderer suggerieren. Ich glaube da nicht an einen Determinismus: KI-Technologie schafft bestimmte Potenziale, die echten, gemeinwohlorientierten gesellschaftlichen Fortschritt bedeuten könnten. Um allerdings dem faschistischen Potential vorzubeugen, müssen wir uns dieser enormen Machtmissbrauchsgefahr bewusst werden und brauchen öffentliche Regulierungen, gut gemachte checks and balances, die KI-Unternehmen auch mit Sanktionen drohen. Aber genau das ist in den letzten fünf Jahren rückläufig, obwohl die EU mit der Datenschutzgrundverordnung und der neuen KI-Verordnung erste Regulierungsversuche auf den Weg bringt. Die EU sollte da keine Minderwertigkeitskomplexe zeigen oder Angst haben, wegen vernünftiger Regulierung dieser Technologie international abgehängt zu werden. Im Gegenteil, in dem als Brüssel-Effekt bekannten Phänomen setzen wir Standards, die weltweit übernommen werden.
Nur scheint der Regulierungsbedarf unheimlich groß zu sein – KI hat ja eine Tendenz, grenzüberschreitend in alle Lebensbereiche einzudringen. Ob im Gesundheitswesen, der Freizeitgestaltung, beim Schreiben von akademischen Arbeiten oder eben im sogenannten Bürokratieabbau. »No limits«, wie das Titelthema unserer Ausgabe lautet, scheint also gerade für KI zu gelten. Wie setzen wir Limits?
Die KI-Ideologen nennen diese Grenzüberschreitungen »Disruption«, um sie gut verkaufen zu können. Zunächst muss das also enttarnt werden: Wofür brauchen wir diese Disruption durch Technologie? Wir sollten nicht das Bild haben, dass wir KI notwendigerweise benötigen, um mithalten zu können oder um unsere enormen gesellschaftlichen Probleme zu lösen. Wir sollten auch nicht glauben, Disruption würde dem Staatswesen gut tun – im Gegenteil, ein Staat darf nicht einfach wie ein Startup scheitern oder pleite gehen oder aufgekauft werden, er muss stabil und verlässlich sein, für alle, insbesondere für die Schwächeren. »Move fast and break things« ist für einen Sozialstaat eine Katastrophe. Wir müssen deshalb differenzierter mit diesem Versprechen der Grenzüberschreitung umgehen. KI wird uns strategisch als eine zweckoffene Technologie verkauft, als eine Universaltechnologie, die vermeintlich alle Bereiche revolutionieren werde. Damit entsteht eine Diskurskonstellation der Alternativlosigkeit, in der unserer Gesellschaft eigentlich eine differenzierte Debatte benötigt: Für welche Zwecke wollen wir KI denn wirklich haben?
Sollten wir als Nutzer*innen von KI das alles beachten? Wenn ich dieses Interview von einer KI transkribieren lasse, füttere ich dann eine Technik, die gerade faschistisch missbraucht wird?
Ich würde mir wünschen, dass Leute, anstatt so akribisch die Benutzung solcher Techniken zu vermeiden, eher dafür streiten, die Technologie zu politisieren. Und dazu gehört primär, die Machtverwobenheit aufzuzeigen und über gute Regulierung zu reden. Wir brauchen Vorschläge, wie man diese Macht demokratisch und rechtsstaatlich ausbalanciert.
Es geht aber auch um öffentliche Bildungsarbeit, damit es eine Öffentlichkeit gibt, die diese Regulierung auch wählt – also eine Politik wählt, die nicht »mehr Elon Musk wagen« möchte oder sich auf andere Weise extrem naiv gegenüber den Proponenten dieser Technologie verhält. Wir brauchen eine politische Öffentlichkeit, die weiß, was hier auf dem Spiel steht. Lieber da ein bisschen mehr Energie reinstecken und ein bisschen weniger in das Deinstallieren von Google und Co – was ja nichts bringt als Ärger, solang es nur wenige tun.
Herr Mühlhoff, vielen Dank für diese Einordnungen!