analyse & kritik

Zeitung für linke Debatte & Praxis

|ak 705 | Alltag

Bürokratie als Heilsversprechen

Wie sieht eine antifaschistische Perspektive auf Künstliche Intelligenz aus? Dazu hat Dan McQuillan einige Überlegungen angestellt

Von Eve Massacre

Eine Gruppe Menschen in einem Labyrinth aus Bildschirmen und Festplattentürmen.
Künstliche Intelligenz ist keine futuristische Technologie, sondern ein bürokratisches Monstrum. Dieses Bild wurde natürlich auch mit Hilfe von KI-Tools (von Canva) erzeugt.

Schien die »Move fast and break things«-Ideologie des Silicon Valley – Entwicklungen möglichst schnell voranzutreiben und mögliche negative Folgen zu vernachlässigen – zuletzt zu schwinden, weil ihre negativen Effekte mehr ins öffentliche Bewusstsein rückten, holt Künstliche Intelligenz bei vielen den blinden Tech-Optimismus wieder hinter dem Ofen hervor. Ich muss oft an einen Satz der kritischen Infrastrukturforscherin Deb Chachra denken, der das dritte Gesetz von Arthur C. Clarke (»Any sufficiently advanced technology is indistinguishable from magic.«) abwandelt zu »Any sufficiently advanced negligence is indistinguishable from malice.« – Jede hinreichend weit fortgeschrittene Vernachlässigung ist von Böswilligkeit nicht zu unterscheiden.

Solchen Gedanken war ich auf der Spur, als ich auf Dan McQuillans Buch stieß: »Resisting AI. An Anti-Fascist Approach To Artificial Intelligence«. Es ist ein Beispiel dafür, wie man sich dem Thema konstruktiv nähern kann, ohne AI komplett abzulehnen oder in die Critihype-Falle zu tappen, also durch Kritik das Kritisierte noch mehr zu pushen. Dan McQuillan hält sich nicht mit den Heilsversprechen der Technologie auf, sondern geht direkt dahin, wo es weh tut: Wie wirkt sich AI auf soziopolitischer Ebene aus? Was passiert, wenn eine solche Technologie in den Bereichen Soziales, Bildung und Gesundheit eingesetzt wird? In sieben pointierten Kapiteln baut er seinen kritischen Ansatz zu AI als Infrastruktur aus.

Die statistischen Schätzungen, auf denen AI basiert, können, so McQuillan, zwar Mustererkennung und Vorhersage, aber sie können nicht Geschichte, Bedeutung und Machtverhältnisse einbeziehen. Mit AI kann keine detaillierte kontextbezogene Einschätzung erfolgen, sondern nur immer weitere statistische Optimierung unter Ausblendung komplexer Realität. Gleichzeitig werden Transparenz, Erklärbarkeit und Kontrolle über Bord geworfen.

Eine Technologie aus der Vergangenheit

Wo kommen all die Informationen her, mit der die AI gefüttert wird – und was kommt bei ihrer Verarbeitung noch so heraus? McQuillan wirft einen kritischen Blick auf die Herkunft der genutzten Datensätze, ebenso auf die materielle Infrastruktur: immenser Energieverbrauch, Kühlwasserbedarf und Schadstoffausstoß. Und auch auf die verborgenen ungerechten Arbeitsbedingungen, ohne die solche Systeme nicht auskommen. Wie schon der Onlinehandel verschärft auch AI die Prekarisierung. Halbwegs okaye Jobs verschwinden, endlos neuer Arbeiter*innenbedarf im körper- und nervenzermürbenden Bereich entsteht: verborgene, schlecht bezahlte Arbeit wie im Datenlabelling, also Beschreibungen von Daten, wie zum Beispiel, was auf einem Bild zu sehen ist.

Dan McQuillan sieht AI als Zuspitzung von Bürokratie, die systemische Ungerechtigkeit und autoritäre Tendenzen verstärken kann. In Großbritannien sollte nach der Finanzkrise 2008 zur Finanzierung der Bankenrettung bei der Sozialhilfe gespart werden. Statt über demokratische Debatte wurde das durch die Einführung automatisierter Digitalisierung der Verwaltung durchgesetzt, wie Dan McQuillan kritisiert. Soziotechnologische Komplexität wurde zugunsten statistischer Vereinfachung über Bord geworfen. Insbesondere in gesellschaftlichen Krisenmomenten werden solche Prozesse vorangetrieben und normalisiert.

McQuillan spürt auch historischen Wurzeln von AI nach und zeigt, dass AI keine futuristische Technologie ist, die aus dem Nichts kommt. In sie fließen herrschende Bewertungen und Diskriminierungen ein – und diese entscheiden bei der AI-gestützten bürokratischen Kategorisierung dann mit darüber, wessen Leben erhaltenswert ist und wessen nicht.

Angesichts des Wiedererstarkens des Faschismus sollte unser Blick skeptisch darauf gerichtet sein, wo AI in Krisen eingesetzt wird, um politische und kulturelle Privilegien und Macht zu erhalten. Ein antifaschistischer Ansatz sollte nach McQuillan das Bewusstsein für AI als eine Technologie der Ausgrenzung schärfen, die dazu beitragen kann, die Grenzen dessen, was als politisch akzeptabel gilt, zu verschieben, indem sie Ungerechtigkeit pseudo-objektiviert.

Alle Macht den Räten

Nach der Kritik kommt Dan McQuillan zu möglichen Auswegen aus dem »AI Realism«, wie er die vermeintliche Unvermeidbarkeit des breiten Einsatzes von AI in Anlehnung an Mark Fishers Beschreibung des »kapitalistischen Realismus« nennt. Dazu blickt er zu feministischer und post-normaler Wissenschaftskritik. (1) Er tritt für ein Denken in solidarischen Beziehungen ein: Statt in statistisch-forcierten Ausschlüssen, also dem Einordnen in Kategorien, über die dann Ausgrenzung begründet werden kann, sollte mehr in gegenseitiger Fürsorge gedacht und nicht länger vernachlässigt werden, wie sehr alles und alle miteinander zusammen- und voneinander abhängen: unsere Interdependenz.

Für die Praxis schlägt McQuillan People’s Councils vor (nicht zu verwechseln mit Bürger*innenräten). Er greift Beispiele von Arbeiter*innen in der AI-Industrie auf, die sich in Worker’s Councils organisieren, um von innen heraus etwas zu verändern. Eins seiner Beispiele ist Ojol in Jakarta: Fahrer*innen der dortigen Variante von Uber haben sich selbst zwecks gegenseitiger Hilfe organisiert. Ojol hat keinen Gewerkschaftsstatus, wird aber von den Fahrservice-Plattformen ernstgenommen, ihre Repräsentant*innen werden zu Verhandlungen geladen. Ein anderes Beispiel waren die selbstorganisierten Proteste und Arbeitsniederlegungen von AI-Arbeiter*innen bei Google nach der Trump-Wahl, die mehr Mitsprache forderten, für was die von ihnen mitentwickelte Technologie eingesetzt werden sollte.

Der Vorschlag geht aber über den Arbeitsplatz hinaus: In den People’s Councils könnten sich Arbeiter*innen und Communities zusammentun, um Wissen auszutauschen, Forderungen zu finden und gemeinsam genug Druck zu erzeugen, um für Veränderungen zu sorgen – eine Form von Gegenmacht. McQuillan regt auch an, aus der Geschichte des Widerstands zu lernen, und zieht Parallelen zu luddistischen Kämpfen gegen die veränderten Ausbeutungsbedingungen in der Frühzeit der Industrialisierung.

Dabei geht es nicht um strikte Verweigerung. Auf Kritik muss für ihn die Arbeit an konkreten Lösungen folgen, da die Probleme, auf die mit der Einführung von AI reagiert wird, nicht von alleine verschwinden. »Resisting AI« heißt für McQuillan im Wesentlichen, die Bedingungen zu verändern, die zum Aufstieg von AI führen, die wiederum autoritäre und faschistische Tendenzen verstärken kann.

Dazu müssen wir, so McQuillan, soziale Aspekte ins Zentrum der Produktion setzen, solidarisches Wirtschaften und Commons anvisieren, also kollektiv produzierte und genutzte Güter und Ressourcen, so dass statistische Optimierung durch Commonisierung ersetzt wird. Ob dann AI dabei eingesetzt würde oder nicht, ist dann nicht mehr die große Frage. Es müsste ein AI-System sein, dass offen und adaptiv ist und den Fokus darauf setzt, Gesundheit und gegenseitige Sorge sowie gute Jobs und Arbeitsbedingungen für alle zu erhalten – und das auch noch umweltgerecht. AI braucht keine Corporate Ethics, sondern weitreichende politische Veränderung: AI als Technologie für eine Revolution statt AI als revolutionäre Technologie, wie Matthew Fuller es so schön formulierte.

Eve Massacre

betreibt den Blog breakingthewaves.de. Sie beschäftigt sich mit der Kultur der Digitalität, radikalen Utopien, Queerfeminismus und Popkultur.

Dan McQuillan: Resisting AI. An Anti-Fascist Approach To Artificial Intelligence, Bristol University Press 2022.

Anmerkung:

1) Postnormale Wissenschaft ist ein Ansatz, bei dem zum Erstellen von Expertisen nicht nur Wissenschaftlerinnen, sondern auch Laiinnen einbezogen werden, oft Betroffene der Folgen der Entscheidung, für die die Expertise erstellt wird.