⋄ Der Isaac-Deutscher-Preis der Historical Materialism wurde in diesem Jahr an Matteo Pasquinelli für sein Buch The Eye of the Master verliehen. ⋄ Matteo Pasquinelli hat dabei sein erstes erfolgreiches Buch vorgelegt, das zwar in viele Sprachen übersetzt wurde, aber die Massentauglichkeit noch nicht erreicht hat. ⋄ Pasquinelli widmet sich darin einer materialistischen Sozialgeschichte der künstlichen Intelligenz und beschreibt, wie der Aufbau des statistischen Maschinenlernens der kapitalistische Arbeitsteilung nachempfunden ist. ⋄ In zahlreichen anekdotischen Ausflügen macht er dabei plausibel, dass andere Formen der künstlichen Intelligenz denkbar und machbar wären. ⋄ Die im Buch dargelegte Theorie ist letztendlich unfertig und nicht hinreichend konsistent, zu viele Referenzen stören unnötig den Fluss der Argumentation. |
1943 erklärten die beiden Neuropsychologen Warren McCulloch und Walter Pitts, dass sich menschliche Neuronen wie elektronische Bauteile verschalten lassen. Wenn ein Neuron genug elektrische Impulse bekommt, sendet es selbst welche aus und mit der richtigen Verschaltung lassen sich dann logische Funktionen wie AND, OR oder NOT erzeugen. Sie prägten den Begriff des neuronalen Netzes, welcher das menschliche Gehirn als einen großen Computer ansah. Und wenn das menschliche Gehirn einfach nur das fleischliche Vorbild moderner Computer ist, warum sollte Künstliche Intelligenz denn etwas anderes sein, als sein Name bezeichnet? Künstliche Intelligenz eben. Bei dieser Analogiebildung gibt es aber eine bedenkliche Leerstelle. Nur weil Neuronen wie ein Computer verschaltet werden können, heißt das nicht, das sie so funktionieren. Die beiden Forscher waren so inspiriert von der Macht der binären Booleschen Logik und der kurz zuvor entwickelten elektromechanischen Umsetzung durch Claude Shannon, dass sie diese Frage gar nicht stellten. Wie viele andere auch.
Diese Frage stellte nun aber Matteo Pasquinelli, um der künstlichen Intelligenz auf die Spur zu kommen. Sein Buch Eye of the Master wurde am letzten Wochenende mit dem Isaac-Deutscher-Preis auf der Historical-Materialism-Konferenz ausgezeichnet.
Buch und Autor
Matteo Pasquinelli kann man noch getrost als Newcomer bezeichnen. Er ist Assistenzprofessor für Wissenschaftsphilosophie an der Universität von Venedig und arbeitet dort am AIMODELS-Projekt, das die Schnittstelle zwischen Bewusstseinsphilosophie, Wissenschaftstheorie, politischer Ökonomie und künstlicher Intelligenz erforscht. Bis Ende des letzten Jahres hat er auch in Karlsruhe zu Künstlicher Intelligenz und Medienphilosophie geforscht. Im Rahmen seines Schaffens sind bereits die Anthologie Alleys of Your Mind: Augmented Intelligence and Its Traumas, sowie der Essay The Nooscope Manifested: AI as Instrument of Knowledge Extractivism mit Vladan Joler entstanden.
Eye of the Master stellt den vorläufigen Durchbruch Pasquinellis dar und wurde ins Arabische, Chinesische, Französische, Griechische, Italienische, Koreanische, Portugiesische, Russische, Spanische, Türkische und im Unrast-Verlag auch ins Deutsche übersetzt. Das Buch wurde eher in der intellektuellen Szene rezipiert und hat den Sprung ins Massenpublikum noch nicht geschafft, auch wenn sich Deutschlandfunk Kultur (siehe hier) dem Buch bereits annahm.
Die Idee des Buches
Der Grundgedanke des Buches ist spannend: Die Trennung zwischen Algorithmen und Künstliche Intelligenz reflektiert nur die Trennung zwischen einfacher und komplizierter Arbeit. In der modernen digitalen Welt werden Arbeitsprozesse in logische Prozesse transformiert, wobei die Struktur der Arbeits – die Produktionsverhältnisse – bildend für die logische Prozesse ist. Als Beispiel könnte dabei die noch auf Turing zurückgehende Unterscheidung zwischen Master- und Slave-Systemen herhalten, bei der die einen Prozesse in Gang setzen und die anderen auf die Ingangsetzung warten müssen. Das führt natürlich auch zu der Überlegung, ob die Computertechnik unter anderen gesellschaftlichen Rahmenbedingungen ganz andere Wege eingeschlagen haben könnte.
Während die Literatur über künstliche Intelligenz mittlerweile auch eine starke sozialkritische Abteilung umfasst, die insbesondere die Intensivierung der Ausbeutung und die Zunahme der Entfremdung durch die Übernahme kreativer Arbeitsschritte durch Algorithmen, haben sich kaum Werke mit der sozialen Genealogie der künstlichen Intelligenz beschäftigt und inwieweit sie das Spiegelbild dieser Gesellschaftsordnung ist. Künstliche Intelligenz könnte man nach Pasquinelli als ein System der Mustererkennung klassifizieren, dass bei einem gegebenem Input einen Output produziert, der von einem qualifizierten Menschen gleich oder ähnlich hätte produziert werden können. Der Punkt ist der, dass die damit jedoch Menschen unter besonderen Produktionsverhältnissen imitiert. Dem historischen Materialismus zufolge besitzt der Mensch jedoch das Potential, nicht nur andere Produktionsmittel zu entwickeln und damit auch andere Produktionsverhältnisse zu schaffen, sondern sich diesen auch psychologisch anzupassen. Die Frage ist, ob Künstliche Intelligenz dazu prinzipiell in der Lage ist, bzw. ob die Verfahren, mit denen heute diese Mustererkennung erreicht wird, dieses Potential in sich tragen.
Der Begriff Intelligenz ist deshalb schon problematisch, weil es vernachlässigt, dass die Datengrundlage, auf die Künstliche Intelligenz statistische Methoden anwendet, ein Produkt kollektiver Arbeitsprozesse ist. Pasquinelli unterscheidet ganz prinzipiell zwischen einer konnektivistischen künstlichen Intelligenz und einer symbolischen. Während letztere auf einer für digitale Technik bearbeitbaren Selbstorganisation auf Grundlage einer speziellen Symbolsprache beruht, verbindet die letzte möglichst viele Daten miteinander, um durch statistische Methodik, aus koinzidenten kausale Zusammenhänge zu ermitteln. Pasquinelli hält den Siegeszug letzter damit begründet, dass diese die kapitalistische Arbeitsteilung wesentlich besser simuliere.
Gründervater der KI: Charles Babbage
Das Buch beginnt mit einer Archäologie und Geschichte des Algorithmus an sich. Ein Algorithmus ist dabei ganz grundlegend eine verbindliche Folge von Handlungsanweisungen, um mit beschränkten Ressourcen aus einem Input in Abhängigkeit von bestimmten Daten einen Output zu generieren. Hierbei lassen sich drei Ebenen aufmachen: soziale Algorithmen, formale Algorithmen und Computeralgorithmen. Mit Peter Damerow gründet sich ein Algorithmus durch eines Praxis des Zählen, der Nummerierung (Einführung einer Symbolmatrix), Rechentechniken und einer formalen Zahlentheorie, wobei es naheliegend ist, dass diese einzelnen Ebenen nicht nur einem gewissen Freiheitsgrad unterliegen, sondern auch reflexive Abstraktionen historischer Gesellschaften sind. So zeigt die Entwicklung kontextgebundener Zählzeichen hin zu kontextfreien bemerkenswerte Ähnlichkeiten zur Genese des Geldes als zunächst stoffgebundenem hin zu einem stofffreien Wertzeichen auf.
Dabei referenziert der Autor auf die ersten mechanischen Rechenmaschinen von Babbage. Die imitierten die Tätigkeiten so genannter Computer, meist Frauen in Heimarbeit, die von Hand größere Rechnungen für Regierungen oder wissenschaftliche Institute erledigten und dann per Brief zurück sandten. Deren Rechentätigkeit war keinesfalls eine große mentale Anstrengung, sondern eine wesentlich mechanische Prozedur, die Babbage durch eine dampfgetriebene Einrichtung kopierte. Babbage hatte in einem Zeitalter exponentiell wachsender mathematischer Probleme eine streng hierarchische Vorstellung eines Rechenvorgangs. An oberster Stelle säßen Mathematiker, welche die ökonomischen und physikalischen Probleme als mathematische formulierten. Eine zweite Schicht an Algebraikern sollte diese dann in einfache Teilprobleme zerlegen, die dann von der untersten Schichten, den einfachen Rechnern gelöst würden. Und genau diese unterste Schicht gedachte Babbage zu automatisieren. Pasquinelli legt hier Wert auf zwei Punkte. Erstens nahm Babbage hier bereits das Prinzip der Taylorisierung vorweg und zweitens definierte er auch, wie sich durch die Zerlegung großer mathematischer Probleme in kleine Teilschritte die benötigten abstrakten Arbeitszeiten berechnen ließen. Pasquinelli nennt dies eine erste mechanische Theorie des Arbeitswerts.
Die Maschine definiert die Arbeit
Diese Wechselwirkung zwischen Maschine und Arbeitswert zieht sich weiter. Die englische Arbeiterklasse als wahrnehmbares Phänomen entwickelte sich parallel zur Einführung der Dampfmaschine, die es erlaubte die Arbeit vieler Individuen gemeinsam zu takten. Maschinen waren nicht nur ein Produkt der Arbeit, sie formte auch die Arbeit als abstrakte Arbeit. Aber die Dampfmaschine schloss zunächst geistige Arbeit aus und die Mittelschichten wehrten sich dagegen, ihre Arbeitskraft ebenso untereinander vergleichen zu müssen, wie die Proletarier. Mit der Erfindung der Computer wurde dieser Umstand aber behoben.
Das besondere an künstlicher Intelligenz ist nun, dass Daten nicht mehr passiv sind, also den Algorithmus selbst nicht ändern können, sondern aktiv diesen beeinflussen können, allerdings wiederum zunächst nur in einer definierten Art und Weise. Der Grundgedanke wurde dabei schon seit den 50er Jahren in den kybernetischen Wissenschaften formuliert und beschreibt die Selbstorganisation von Informationen oder zumindest ihren materiellen Trägern. Dabei legten die Kybernetiker einen erstaunlichen Dreh hin, indem sie nicht von der Natur Verständnis selbstorganisierender Systeme, sondern sogar umgekehrt, von den Möglichkeiten der Elektronik und Programmierung Erkenntnisse über die Funktionsweise biologischer Organismen erwarteten. Ausgerechnet beim Herzensprojekt der futurooptimistischen Linken der 60er und 70er Jahre erreichte die Entfremdung geradezu einen Höhepunkt, indem der Körper als Spiegelbild der Produktionsmittel betrachtet wurde. Der idealistische Ansatzpunkt war halt der ideale Nährboden einer Gegenkultur zum Nationalismus, Rassismus und Naturalismus, der die Welt bis in die 60er Jahre dominierte. Kritiker*innen insistierten darauf, dass die Sinnesorgane Daten in einer spezifischen Gestalt bearbeiteten, die durch die Computernetzwerke nicht simuliert werde und dass diese spezifische Form nicht vernachlässigt werden dürfe; genauso wie der Umstand, dass der Zweck der Informationsverarbeitung im Gehirn ein ganz anderer ist als der, nur äußeren Zwecken gehorchenden, kybernetischen Netzwerke.
KI als Kind des Neoliberalismus
Final lässt Pasquinelli keinen geringeren als Friedrich Hayek, den ideologischen Urvater des Neoliberalismus als Richter der Kybernetik-Debatte auftreten. Dessen Grundsatz ging davon aus, dass Märkte nicht Waren allokalisieren, sondern Informationen über Waren, die derartig mannigfaltig und riesig an der Zahl sind, dass sie sinnlich nur in Form von Wahrscheinlichkeiten erfasst werden können. Um dieser Flut von Informationen rational Herr werden zu können, müsse der Mensch und sein Verstand zweierlei tun. Erstens Mechanismen der Selbstorganisation entwickeln und zweitens Muster definieren, anstatt sie aus der Natur abzuleiten. Muster könnten mathematisch-abstrakt vorkonstruiert werden und die Natur könne in diese eingeordnet werden, solange sich die empirischen Ergebnisse mit der Theorie deckten.
„People do behave in the same manner towards things, not because these things are identical in a physical sense, but because they have learnt to classify them as belonging to the same group, because they can put them to the same use or expect from them what to the people concerned is an equivalent effect.“
- Hayek: Scientism and the Study of Society. S.277
Das Individuum sei damit nicht mehr in der Lage, die Welt zu erkennen, sondern nur ein Modell anzufertigen, welches sich hinsichtlich gestellter Anforderungen als nützlich erweist.Das Problem hinter der modernen Ansicht über künstliche Intelligenz ist nicht, dass das nicht ginge. Dazu sind sowohl diese als auch der Kapitalismus viel zu mächtig. Der springende Punkt ist, dass diese auf ein spezifisches Problem hin angewandten Algorithmen als problemlösende Methode per se verstanden werden. Aus irgendeinem wahrgenommenen Phänomen werden ja entsprechend der Modelle nur relevante Informationen in Datenbanken aufgenommen. Welche Information aber relevant ist, ist eine gesellschaftlich-spezifische. Input-Output-Rechnung etwa, die auf ähnlichen Mustern beruht etwa, ist geeignet, auf der Grundlage zuvor gefasster Entscheidungen knappe Güter zu planen. Sie ist aber eben nicht in der Lage, die politischen Entscheidungen als solche zu treffen. Mit der statistischen künstlichen Intelligenz wird dies aber immer mehr suggeriert. Würde man etwa künstliche Intelligenz so verstehen, dass sie selbst in der Lage sein müsste, die Selektion automatisch zu treffen, dann wäre die moderne keine.
Kritik
Störend ist phasenweise das permanente Referenzieren auf unterschiedlichste Intellektuelle. Oskar Lange, Sohn-Rethel, Pierre Bourdieu, Marx und Babbage; für jeden ist irgendwie etwas dabei. Wenn allerdings bis zu drei große Theorien über Schlagworte innerhalb eines Satzes zusammengewürfelt werden bräuchte es häufiger schon ein paar ausführende Worte, wie diese teils konträren Denker zu verbinden seien. Gerade weil der theoretische Ansatz so kreativ ist, hätte es das wirklich nicht gebraucht.
Ein Beispiel, wie diese Art und Weise, möglichst breit zu referenzieren, auch wirklich in die Irre führt, ist das Kapitel über den general intellect bei Karl Marx aus dem Maschinenfragment. Der Begriff spielt eigentlich nur eine nebensächliche Rolle, um anzudeuten, dass der Stand der Produktivkräfte nicht nur eine rein technische Angelegenheit ist, sondern auch mit dem Bewusstsein einer Gesellschaft interagiert. Pasquinelli stellt nun die sehr steile These auf, Marx hätte diesen Begriff nur deshalb nicht ins Kapital übernommen, weil er die Arbeitswertlehre unterminiert hätte, wobei er operaistischen und post-operaistischen Interpretationen Glauben schenkt, die eine Dominanz die aus diesem Begriff eine Dominanz der immateriellen Arbeit ableiteten. Pasquinelli konstruiert daraus weitere Argumente, z.B. dass eine Krise nicht nur eine Krise der Arbeit sei (was ja beim Zusammenhang zwischen organischer Zusammensetzung und Durchschnittsprofitrate auch nicht falsch ist), sondern eine der Arbeitswertlehre (S.114). Das ist Quatsch. Wenn die Arbeitswertlehre eine Krise voraussagt, dann ist die eintretende Krise die Bestätigung der Theorie und kein gemeinsamer Untergang. Anstatt sich zu kreativ im Süßwarenladen der Grundrisse zu bedienen, hätte Pasquinelli wohl besser daran getan, den Begriff der abstrakten Arbeit im Licht des 21. Jahrhunderts zu interpretieren, der nicht weniger geeignet gewesen wäre, um zu sagen, was er sagen will. Aber warum tut er es dennoch? Weil Pasquinelli unbedingt Babbage und Marx zusammenbringen will und zwar auch an den Stellen, wo es eben nicht passt, musste er etwas Marx wegschnibbeln.
Zusammenfassung
Eye of the Master ist damit vor allen Dingen eines. Noch sehr unfertig. Dabei überzeugt der Grundgedanke auf voller Linie. Anstatt sich im Abstrakten darüber zu streiten, ob künstliche Intelligenz möglich ist und ob die Kombination statistischer Verfahren so genannt werden sollte, fragt Pasquinelli, was die Intelligenz in dieser Gesellschaftsordnung tut. Der Hebelpunkt der Kritik ist nicht der Begriff der Intelligenz, sondern die falsche Unterscheidung zwischen künstlich und natürlich. Denn beide unterliegen der gleichen historisch-spezifischen Gesellschaftsordnung, welche eine klare Trennung unmöglich macht. Bei der Beweisführung verliert sich Pasquinelli jedoch in Nebensächlichkeiten, Geschichtchen und Theoriefragmenten, die sicher die Aufmerksamkeit der Feuilletons erheischen, den strengen Kriterien marxistischer Theoriebildung allerdings nicht genügen.
Natürlich gibt es viel gutes am Buch. Es bringt der Leser*innenschaft viele spannende Einsichten und historische Pointen näher. Die zentrale These, dass Arbeit von der herrschenden Klasse so strukturiert wird, dass sie zunächst maschinenkonform und nun digitalkonform bewältigt wird, sticht auch ohne exakte Beweisführung. Die vorgestellte Bandbreite an Kognitions-, Perzeptions- und Informationsmodellen erfüllt seinen Zweck, der Leser*in plausibel zu machen, dass die moderne Form künstlicher Intelligenz nicht notwendig die einzige ist. Und insbesondere die dargestellten Debatten um McCulloch und Pitts lesen sich als eine moderne Reformulierung der Fragestellung von Lenins Empiriokritizismus-Schrift.
Der Isaac-Deutscher-Preis kommt jedoch zu früh. Eingedenk der Tatsache, dass kein*e Autor*in ihn bisher doppelt erhalten hat, wäre es vielleicht schlüssiger gewesen, Pasquinelli zwar für seine unterhaltsame Entfaltung des Problems einer historisch-materialistischen Interpretation der konkreten künstlichen Intelligenz unter kapitalistischen Verhältnissen zu würdigen, sich den Preis aber für eine konsistent entwickelte Theorie aufzusparen. Vielleicht ist die zu frühe Preisvergabe ein Indiz dafür, dass die Jury dem Autoren eine solche nicht zutraut. So skeptisch sind wir da nicht.
Literatur:
Pasquinelli, M. (2023): The Eye of the Master. A Social History of Artificial Intelligence. London, New York: Verso.