| ⋄ Die aktuelle Ausgabe der Marxistischen Blätter widmete sich dem Thema der Künstlichen Intelligenz. ⋄ Hannes Fellner diskutierte, dass KI im Wesentlichen die mittlere Leitungsebene ersetze und damit der Klassenherrschaft ihrer konkreten Anschauung beraube. ⋄ Dietmar Dath charakterisierte KI als Falschgeld der Monopolisten, mit dem menschliche Arbeit nur solange geltend gemacht werden könne, bis sich die Produktionsweise verallgemeinert hat. ⋄ Peter Schadt rief dazu auf, am Gegenstand der KI seine Einsichten in die Kritik der politischen Ökonomie weiterzuentwickeln. ⋄ Claudius Vellay sieht im Begriff der künstlichen „Intelligenz“ den Siegeszug des bürgerlichen Neopositivismus am Werk, der nur Produkte ohne ihre Produktion berücksichtige. ⋄ Leon Sierau erklärte, dass KI nicht die Weltherrschaft übernehmen könne, da sie nach aktuellem Stand in jedem neuen Kontext auch wieder neu lernen müsse. ⋄ Jens Hälterlein zeigte auf, dass KI in der Rüstungsindustrie weder neutral sei, noch den Menschen ersetzen könne, sondern gerade ihre Unmenschlichkeit das Argument für ihre Nutzung sei. |

Dass die Debatte um die so genannte Künstliche Intelligenz mittlerweile übersättigt ist, stellen die Marxistischen Blätter nicht in Abrede. Während nur wenige Menschen die Relevanz der KI für die Einschätzung der zeitgenössischen politischen Ökonomie anzweifeln werden, ist der Möglichkeitsraum dennoch zu groß für sinnvolle wissenschaftliche oder politische Abschätzungen. Vom Platzen der Blase bis zur Industrie 5.0 scheint alles möglich. Wenn das Thema sich nicht selbst eingrenzt, muss man es eingrenzen, um sich überhaupt im Dschungel der Erscheinungen zurechtzufinden.
Die Marxistischen Blätter haben dennoch versucht, einige Theorieansätze – etwa von Dietmar Dath oder Peter Schadt – zusammenzuführen. Jens Hälterlein bringt in seinem Aufsatz einen Begriff ein, der sich sehr gut als Scheidemesser einer Analyse eignet: Meaningful Human Control. Der Begriff fragt nach der Kontrolle; über Produkte und Produktionsmittel und durch wen sie ausgeübt wird. Er fragt nach der Menschlichkeit, die nicht erst durch Algorithmen, sondern schon seit 150 Jahren durch die Gesetze des Kapitals in Frage gestellt wird. Und er fragt nach der Bedeutung. Zu welchem Zweck werden Produkte und Produktionsmittel verwandt und was bedeutet es überhaupt, Eigentum daran zu besitzen. Diese Fragen lassen sich in ihrer Spezifik genauso an die KI stellen, wie an die Dampfmaschine; wobei die jeweilige Spezifik zu unterschiedlichen Antworten führt. Welche Antworten finden hier Marxisten?
KI als nächste Stufe des Warenfetischs
Hannes Fellner beginnt damit, dass jede Arbeitsteilung eine Formalisierung der Arbeit benötigt, mit deren Hilfe sie koordiniert werden kann. Die Formalisierung als Ideologie verselbstständigte sich im 20. Jahrhundert jedoch derart, dass die Meinung vorherrschend wurde, dass auch sämtliche Intelligenz durch formale Logik und symbolische Repräsentation formalisierbar sein müsse. Das Lernen durch Mustererkennung, bei dem ein Algorithmus seine Parameter solange selbstständig anpasst, bis ein gewisses Ziel erreicht wird, passte wunderbar zu den emergenten Mustern der Ökonomie, die nach Hayek die Überkomplexität gegenüber zentraler Planung bewiesen und deren autarkes Gehirn der unpersönliche Markt sei. Dass die aktuell diskutierte Generative Künstliche Intelligenz stärker im Fokus steht als die wesentlich leistungsfähigere spezialisierte KI, verweist nach Fellner darauf, dass nicht etwa die einfachen (oder höher ausgebildeten) Arbeiter*innen ersetzt werden sollen, sondern das mittlere Management. Das System bleibt schließlich sowohl von der Qualität des Inputs, als auch von der Eingabe eines Ziels abhängig. Was ersetzt wird, ist die Exekution entsprechend der Marktgesetze, deren bestmögliche Befolgung determiniert, aber ungeheuer komplex ist und sich somit als Einsatzfeld der KI eignet. Das impliziert nicht nur Macht über die Arbeit, bei der die KI die Rolle des fungierenden Kapitals einnimmt, sondern auch gesteigerte Kontrolle über die Arbeit. Da die kapitalistische Ökonomie aber real widersprüchlich ist und im Widerspruch die Entscheidung durch reale Macht gefällt wird, bleiben die Monopolkapitalisten als herrschende Subjekte durch KI unangetastet. KI ist daher keine wertfreie Technologie, sondern eine weitere Fetischisierungsstufe, welche die Herrschaft der Bourgeoisie nicht nur als abstrakte Gesetze durchsetzt, sondern die Durchsetzung selbst entpersonalisiert. Am Ende bleibt nicht mal mehr der Chef zum Hassen. Fellner kann also zum MHC-Messer beitragen: mehr Kontrolle durch weniger Mensch zum Zwecke der Profitmaximierung.
KI als Falschgeld des Monopolkapitals
Dietmar Dath wendet gegen den Begriff der „Intelligenz“ die Differenz in der historischen Genese zur menschlichen Intelligenz ein. Ein Kind lernt Sprache nicht, indem es Millionen von Symbolen und ihrer Repräsentation auf Muster hin untersucht. Er vergleicht somit die KI mit Falschgeld, das solange als Zahlungsmittel fungieren kann, wo das Fehlen vergegenständlichter Arbeit nicht auffällt. Das Problem ist aber, es fällt auf und dort, wo es auffällt, senkt es den Wert der Ware Arbeitskraft. Der bürgerliche Humanismus, der Wert auf die Differenz zwischen KI und MI beruft, versuche nichts weiter als die Voraussage des Kommunistischen Manifests zu leugnen, dass mittlerweile eben der wissenschaftliche Beruf des Arztes zuweilen vom Informatiker ersetzt wird und einmal formalisiert auch vom einfachen Arbeiter. Er unterschlägt, dass Arbeiter*innen in konkreten Gebrauchswerten denken, wenn sie von Sprache und Intelligenz sprechen, während Monopolkapitalisten in den abstrakten Gesetzen der politischen Ökonomie denken.
Meaningful bedeutet bei Dath hier, dass die soziale Interaktion für Sprache definitorisch ist. Eine Sprache zwischen Computer und Mensch, die letzterem die Artikulationsfunktion raubt, ist keine Sprache, sondern eine konkrete Arbeit.
KI als Lerngegenstand der Kritik der politischen Ökonomie
Peter Schadt kritisiert eingehend Marxist*innen, die jede Art von Wissen per se als abstrakte Arbeit gelten lassen wollen, obwohl im Kapitalismus private Arbeiten erst im Tausch ihren gesellschaftlichen Charakter erhalten. Software habe dabei schon immer das Problem gehabt, wenn sie einmal programmiert worden ist, dass sie sich ohne nennenswerten Arbeitsaufwand reproduzieren ließ und ihr Arbeitswert in einer naturalistischen Auffassung gegen Null gegangen sein müsste. Dass hier zahlreiche juristische Maßnahmen wie der Kopierschutz oder technische Schranken wie Mietmodelle diesen Wertverfall herausgezögert haben, offenbart den gesellschaftlichen Charakter des Werts umso mehr. Den Wert von künstlicher Intelligenz sollte man nach Schadt auch nicht im Tantalabbau im Ostkongo oder bei Amazons Mechanical Turk suchen, wo gerade der Druck auf die Arbeiter*innenklasse die Löhne so stark drückt, dass der Anteil des Arbeitswerts kaum mit den umgesetzen Billionenbeträgen in sinnvolle Relation gesetzt werden kann. Und auch die ganze Ermöglichung einer digitalen, prosumergeprägten Unterhaltungsstruktur (Näheres hier) als Wertquelle führe in die Irre, da hier kaum mehrwertbildende Arbeit im Spiel sei.
Nachdem Schadt nun einige Erklärungsmuster vorgestellt hat, von denen die meisten untauglich sind, weil sie an der Totalität der kapitalistischen Produktionsweise vorbeigehen, kann er letztendlich nur ein Projekt anbieten: sich an der Bestimmung des Ortes der Künstlichen Intelligenz in einer Kritik der politischen Ökonomie zu beteiligen, wobei zum einen an der positivistischen Falle vorbeigegangen werden soll. Kategorien wie Überausbeutung – also Löhne, die nicht die intergenerationale Reproduktion der Ware Arbeitskraft sichern – hält Schadt für verkehrt. Man spräche dem Kapitalismus ein moralisches Kalkül zu, wenn man so etwas wie gerechte Löhne postuliere. Auf der anderen Seite solle man alle Angriffe der subjektiven Wertlehre zurückweisen, die in der KI gerade den Wert des subjektiven Nutzens und nicht eines objektiven Arbeitswerts bestätigt sehen. Meaningful denkt Schadt hier also als bedeutungsvolle Kritikarbeit, bei der man mehr über die Klassengesellschaft als solcher lernen kann, als nur über KI. Das reißt auch die Frage der Kontrolle an. Und das Human richtet sich gegen ungesellschaftliche Vorstellungen abstrakter Arbeit.
Keine KI in der Schule, solange Schule nichts als Schule ist
Erich Goldberg diskutierte eine ganz konkrete Frage: wie wirkt sich KI im schulischen Kontext aus? Prinzipiell muss man bei den marktgängigen und von Lehrer*innen wie Schüler*innen genutzten Programmen von solchen ausgehen, die rein nach Wahrscheinlichkeiten auf Grundlage riesiger aggregierter Datenmengen entscheiden. Damit werden insbesondere Mehrheitsmuster abgebildet und Minderheitspositionen, unabhängig von ihrer guten oder schlechten Begründung, unterschlagen. Würde man maschinelles Lernen mit einem menschlichen Lernen analogisieren, würde man hier in ein mechanistisches Bild verfallen, das Schüler*innen als durch Wahrscheinlichekeitskalkül konditionierbare Organismen ansehe. Lege man Holzkamps Unterscheidung von defensivem und expansivem Lernen an – Lernen zur Vermeidung von Strafe oder Lernen zur Wissenserweiterung -, dann seien Algorithmen vor allen Dingen für ersteres zu gebrauchen. Gerade weil das kapitalistische Schulsystem fast ausschließlich auf defensivem Lernen beruhe, sei das Problem so virulent. Würde expansiv gelernt, würde die Nutzung von KI, um sich etwa mal einen Programmschnipsel schreiben zu lassen oder eine PDF nach einem Kriterium zu durchsuchen, überhaupt nicht als Problem darstellen. Schüler*innen können aber nun das Lernen unter Zwang simulieren und damit selbst die Mühe vortäuschen, die der Schule als Rechtfertigungsgrund geblieben ist. Antowerten könne Schule nur durch weitere Entkontextualisierung, verstärkte Operationalisierung und Überwachung. Freie Formen von Lernprodukten werden natürlich vakant, wo sich der Anteil an KI nicht mehr bestimmen lässt, aber relevant ist, weil es schon immer um die Mühe und nicht um das Produkt ging.
Noch dytopischer seien Absichten, dem kommenden Lehrermangel damit zu begegnen, dass die Rolle des individuellen Lerncoaches durch KI-Kontrolle eingenommen werden könne. Dabei sei besonders problematisch, dass wir hier vom Einfluss der Algorithmen in Entwicklungsphasen des jugendlichen Gehirns sprechen; zugespitzt gesagt würde eine noch hochgradig unterentwickelte KI-Technologie heute schon Formen der Bewusstseinsbildung maßgeblich beeinflussen. Und nicht zuletzt sei die Gamification des Krieges – die mit dem Einsatz von Drohnen eine neue Stufe erklommen hat – ein ernstzunehmendes Thema. Angesichts der skizzierten Probleme sieht Goldberg eigentlich nur eine Notlösung: weitestgehende Vermeidung von KI und kontrollierte Digitalisierung mit Open-Source-Programmen, solange bis eine Gesellschaft ein Schulsystem herausgebildet hat, dessen Zentrierung auf expansivem Lernen eine sinnvolle Nutzung von KI ermöglicht. Control könne hier also nur Vermeidung heißen, bis die Schule meaningful und human sei.
K“I“ als Höhepunkt des bürgerlichen Neopositivismus
Claudius Vellay widmet sich der KI bewusst aus weltanschaulicher Sicht und nicht aus einer politökonomischen, da der Platz der KI in der politischen Ökonomie durch den Klassenkampf entschieden werde. Weltanschaulich sei die Differenz zwischen materiellem Sein und ideellen Bewusstseinszuständen unhintergehbar. Beide seien durch den Begriff der Arbeit miteinander verbunden. Reine Idee ohne Praxis sei ebensowenig Arbeit wie reines Handeln ohne Bewusstsein. Nur Gedankeninhalte seien hierbei wahrheitsfähig. Die physikalische Schallwelle, der Tintenkleks oder das Digit allein können nicht wahrheitsfähig sein, da sie bereits Realität sind. Die ideelle Zielsetzungs(und Realisierungs)fähigkeit, die über anthropomorphen Funktionalismus in der Natur oder genetisch eingeschriebene Instinkte der Biene hinausgehe, habe schon Marx allein dem Menschen zugeschrieben. Der Chatbot verfolgt kein Ziel, seine Antworten sind zweckloses Sein, nur sein zugrunde liegender Algorithmus ist Realisierung eines menschlichen Ziels. Das Sein allerdings allein auf seine realisierte Erscheinung zu reduzieren und die zielsetzende Potenz des Wesens auszuklammern, sei Höhepunkt des Siegeszuges des bürgerlichen Idealismus. Das Wort „Intelligent“ beschreibt hier nur die Ununterscheidbarkeit eines Produkts von dem eines intelligenten Wesens, ohne dessen historische Genese und dessen innewohnendes Potential zu berücksichtigen. Wenn Intelligenz Problemlösekapazität sei, fehle es KI bereits an Problemformulierungskapazität. Genau wie ein Buch ein Werkzeug zur Lösung eines Problems sein kann, aber nie selbst das Problem aufstellen könne, sei die KI lebloses Werkzeug. Selbst die Dystopie einer Verselbstständigung der KI bleibe vor dieser tiefen Einsicht eine Nebelkerze. Daher gelte für die KI wie alle Produktionsmittel; sie der Kontrolle der Bourgeoisie zu entreißen, um durch den bewussten Einsatz der Produktivkräfte dem Menschen neue Perspektiven der Bedeutsamkeit zu geben.
Von Katzenbildern zur Weltherrschaft
Leon Sierau greift apokalyptische Warnungen bürgerlicher Wissenschaftler wie des letztjährigen Physik-Nobelpreisträgers Geoffrey Hinton auf, die Menschheit habe es zu ersten Male mit etwas zu tun, dass intelligenter sei als sie selbst. Er führt an einem einfachen mathematischen Beispiel aus, dass es sich beim maschinellen Lernen vorrangig um ein simples Optimierungsproblem handele, das durch die Verfügbarkeit von Funktionsklassen und weniger die Menge an Trainingsdaten begrenzt sei. Die zunehmende Fähigkeit, selbstständig Funktionsklassen aufzustellen, habe nun zahlreiche Forscher*innen beeindruckt, aber die frühbehavioristische Reduktion der menschlichen Psychologie auf ein Reiz-Reaktions-Schema, das nicht mehr an den Gründen und Zielen einer Funktion frage, verleite zu Fehlschlüssen. Ein Programm kann etwa aus Pixelkonfigurationen lernen, Hund und Katze auf Bildern zu unterscheiden, aber eben nicht aus untergemischten Bildern eines Häschens ein neues Tier im Sinne einer bedeutungsvollen Beschreibung zu klassifizieren. Umgekehrt würde ein Programm bei einer entsprechenden Häufigkeit von Katzenbildern im Wohnzimmer und Hundebildern in der Natur den Hintergund als wesentliche Eigenschaft des Objekts fehldeuten. In beiden Fällen ist der Mensch zum kontextübergreifenden Denken fähig, die KI nicht. Und da finden zeitgenössische Systeme ihre Grenze. Verändert sich der Kontext, muss die KI grundsätzlich neu lernen. Damit fehlt der KI sowohl die Fähigkeit zur Kontrolle des Kontexts als auch zur Bewertung der Bedeutung des Kontexts. Und gerade weil sie damit nicht menschlich sei, sei sie nur ein Werkzeug, dass menschliches Denken nur ergänzen kann und von der Übernahme der Weltherrschaft ein gutes Stück entfernt.
Die Bedeutung der KI in der Rüstung
Jens Hälterlein stellte die Bedeutung der KI in der modernen Kriegsführung dar. So werde diese etwa in Kriegsspielen verwandt, um das Verhalten „feindlicher“ Kräfte zu simulieren. Logistik werde bewältigt und Überwachung koordiniert. Luftabwehrsysteme, die Flugbahnen vorausberechnen, arbeiteten schon länger mit KI-ähnlichen Programmen. Entscheidungsuntersützungssysteme und Zielidentifikationen haben zuletzt mit dem israelischen Lavender und Where’s Daddy an Bekanntheit gewonnen. Letztlich fungieren einige Waffensysteme sogar völlig autonom. Während die Systeme hohe Geschwindigkeit, Effizienz und Präzision versprechen, werden sie jedoch vor allen Dingen wegen ihrer Fehleranfälligkeit kritisiert. Der Automation Bias führt dazu, dass der Mensch der KI grundsätzlich vertraut, weil diese mehr Informationen verarbeiten kann als ein menschlicher Akteur. KI-Systeme könnten aber weder ethisch entscheiden und ihre Automatisierung wirft juristische Fragen der Verantwortlichkeit bei Völkerrechtsbrüchen auf. Da sich unabhängig davon, wie der Mensch in die Entscheidungsprozesse eingebettet ist, diese Fragen immer stellen, wurde das Konzept der Meaningful Human Control entwickelt.
Denn angenommen, eine KI gewichte den Parameter dunkler Hautfarbe, der bei einem Kombattanten fast ausschließlich vorkomme, sehr hoch und identifiziere eine Zivilistin mit gleicher Hautfarbe daher als Kombattant; auf welcher Grundlage sollte ein Mensch entscheiden können, warum das System die entsprechende Person identifiziert hat? Es müsste schon eine Kontrolle über das komplette Kalkül geben, dass menschlich nachvollziehbar sei und damit würde sich das System letztlich überflüssig machen, dahier die Effizienz wieder durch die kognitiven Möglichkeiten des Menschen gedrosselt wird. Obwohl sich fast alle Rüstungskonzerne zu ethischen Prinzipien bei der KI-Nutzung bekennen, kann nicht glaubhaft gemacht werden, wie der Spagat aus Kontrolle und Effizienz realistisch umzusetzen sei. Bedeutungsvolle menschliche Kontrolle kann daher nicht in einem neutralen Prinzip verstanden werden; sondern in der Bedeutsamkeit, dass KI dem Feind ganz offen zu erkennen gibt, dass sie nicht unterscheiden wird, ob da einer im Einzelfall Zivilist oder Kombattant, auf dem Rückzug oder im Angriff ist. Diese Message ist das Bedeutende an der KI-Rüstung.
Zusammenfassung
Die Marxistischen Blätter arbeiten tiefgründig und perspektivisch heraus, dass die Theoriebildung um Künstliche Intelligenz mehr ist, als die Frage, ob man bei der Erstellung eines Flyers dieses oder jenes Bildbearbeitungsprogramm nutzen sollte oder ob Roboter bald die Menschheit versklaven. Künstliche Intelligenz ist ein Prüffeld marxistisch-leninistischer Theoriebildung, das nach den Grundsätzen des Menschenbildes, des dialektischen Materialismus und der Kritik der politischen Ökonomie fragt. Wie die Dampfmaschine einst den händisch-betriebenen Webstuhl ersetzte, entwertet künstliche Intelligenz Produktionsweisen informeller Natur, gleichwohl sie diese in sich integriert, und kein historischer Materialist könnte gleichgültig gegenüber solchen Entwicklungen sein. Doch möge maschinelles Lernen auch noch so bedeutsam auf die Form der kapitalistischen Gesellschaft Einfluss nehmen, so bestätigen alle Aufsätze auch, was eine Konstante in der Klassengesellschaft ist: dass Werkzeuge und Produktionsmittel nie selbst regieren. Dass sie Instrumente in der Hand ihrer Besitzer sind. Es gibt keine Macht der KI über die Arbeiter*innenklasse, weil KI selbst keine Interessen hat, zu deren Erreichen Macht von Nöten wäre. Es gibt nur die Macht ihrer Besitzer und damit ist jede Frage nach KI untrennbar mit der Kontrolle über die Produktionsmittel verbunden.
Literatur:
alle Aufsätze in: Marxistische Blätter (2025). Jahrgang 64. Ausgabe 4. Essen: Neue Impulse Verlag.
