analyse & kritik

Zeitung für linke Debatte & Praxis

0

|Thema in ak 720: künstliche Intelligenz

Glow-up fürs Kapital

Warum wir im Hype um KI lieber von entfremdeter Intelligenz sprechen sollten

Von Max Franz Johann Schnetker

Zeichnung eines Roborters umgeben von Sternchen, der einem Menschen mit geschlossenen Augen den Kopf hält. Eine weiße Flüssigkeit fließt vom Mund des Roboters in den Mund des Menschen.
Illustration: Maik Banks

Der erfolgreiche Übergang zu einer Welt mit Superintelligenz sei vielleicht das wichtigste – und hoffnungsvollste und beängstigendste – Projekt in der Geschichte der Menschheit, schrieb Sam Altman jüngst auf dem Blog seines Unternehmens OpenAI. Altman ist Risikokapitalist und CEO von OpenAI. Das Unternehmen hat die GPT-Technologie (Generative Pre-trained Transformer) entwickelt, anhand von auf tiefen neuronalen Netzen aufbauenden sogenannten ML-Systemen. ML steht für maschinelles Lernen. Diese Modelle können grammatikalisch weitgehend kohärente Texte generieren und werden auch als Large Language Model (LLM) bezeichnet.

Auf Frage-Antwort-Spiele trainierte Textgeneratoren wie ChatGPT können den Eindruck erwecken, tatsächlich eine Konversationen zu führen. In einem auf der Website der Firma veröffentlichten Statement erklärte Altman, die LLM-Textgeneratoren seien ein erster Schritt zur Entwicklung einer Generellen Künstlichen Intelligenz (Artificial General Intelligence, kurz AGI) sowie im weiteren Verlauf von Superintelligenz. AGI sollen Systeme sein, die über Common Sense, also gesunden Menschenverstand, verfügen und eine ähnliche Breite von Problemen begrifflich erfassen und kontextsensitiv lösen können wie Menschen.

Die Entwicklung dieser allgemein befähigten Maschinen wäre jedoch wiederum nur ein Zwischenschritt auf dem Weg zur Entwicklung von Superintelligenz, also dem kollektiven Wirken von der Menschheit überlegenen, gottähnlichen Maschinen. Die Konzepte von AGI und Superintelligenz stammen aus der Ideenwelt des Transhumanismus, Sam Altman ist einer ihrer bekanntesten Vertreter. Der Erfolg der Superintelligenz, so Altman in seinem Blog-Beitrag, sei »keineswegs garantiert, und die Herausforderungen (grenzenlose Nachteile und grenzenlose Vorteile) werden uns hoffentlich alle vereinen. Wir können uns eine Welt vorstellen, in der die Menschheit in einem Maß gedeiht, das wahrscheinlich noch keiner von uns vollständig visualisieren kann.« Er hoffe, mit einer AGI, die auf dieses Gedeihen der Menschheit ausgerichtet ist, einen Beitrag zu einer solchen (besseren) Welt leisten zu können.

Billionen für die Superintelligenz

Neben OpenAI haben auch die Alphabet Tochter Deepmind, das von Amazon finanzierte Startup Anthropic und die von Elon Musk gegründete Firma xAI angekündigt, AGI entwickeln zu wollen. Meta-Chef Mark Zuckerberg hat 2025 nachgezogen und angekündigt, seinen Konzern eine eigene Superintelligenz entwickeln zu lassen.

US-Techkonzerne und Finanzinvestoren lenken derzeit Billionen Dollar in die Spekulation auf den baldigen Bau der Gottmaschinen. Zugleich warnen Institutionen wie die Deutsche Bank, dass es nur solche überzogenen Entwicklungen im Bereich Hightech und KI sind, die die US-Ökonomie aktuell aus der Rezession heraushalten. Die KI-Bubble, da sind sich die meisten Beobachter*innen einig, könnte bald platzen.

Dennoch kann man mit Blick auf diesen Bereich von einer Art diskursivem Hütchenspiel sprechen: Wurden wir nicht vor 15 Jahren noch vor der Industrie 4.0. gewarnt? In der alle einfachen Arbeiten, von der Reinigung über die Pflege, der Arbeit am Band bis zum Lasterfahren von KI-Robotern erledigt werden? Dass man Programmieren, Verwalten und Designen lernen müsse, um zu bestehen? Jetzt ist es genau andersherum: Diese sogenannten »White Collar Jobs« werden von den Sprachmodellen bedroht, während alle manuelle Arbeit fürs Erste sicher zu sein scheint. Denn die KI kann zwar Texte und Bilder errechnen, aber keine Maschinen warten. Trotz dieser 180-Grad-Wende dominiert die dystopische Vorhersage einer baldigen Machtübernahme der KI die öffentlichen Debatten, als wäre nichts passiert.

Nur: Wie schaffen es diese Machine-Learning-Systeme überhaupt, zu Trägern dieses Versprechens von der Menschmaschine oder sogar Gottmaschine zu werden? Sämtliche Fortschritte im Bereich der KI in den letzten 50 Jahren verdanken sich der immer größeren Verfügbarkeit von Rechenkapazität, nicht einem wissenschaftlichen Paradigmenwechsel. Auch die aktuellen generativen Systeme verarbeiten Sprache nicht direkt. Sie verarbeiten Vektoren, die bestimmte Wortbestandteile und deren Verwendungsähnlichkeiten repräsentieren. In dieser mathematischen Vermessung der Sprache wird die Form der Sprache abgebildet, nicht ihr Inhalt. Es werden immer größere Sprachmodelle mit immer größeren Datensätzen trainiert und anschließend wird überprüft, welche Fähigkeiten sie entwickeln.

Daten sind das Produkt der Arbeit von Milliarden Menschen.

Die Daten, mit denen die Modelle trainiert werden, werden dabei als eine Art Ressource oder Naturstoff behandelt und nicht als das beschrieben, was sie sind: das Produkt der Arbeit von Milliarden Menschen in digitalen Räumen. Diese Menschen entäußern sich, indem sie füreinander digitale Gebrauchswerte produzieren und diese miteinander teilen. Das kann von komplexen Opensource-Programmen über lange Texte und Kunst bis hin zu dummen Memes und Bildern vom eigenen Essen reichen. Das alles sind durch die Entäußerung von menschlichen Subjekten geformte Daten, in denen andere Subjekte die Subjektivität wiedererkennen können. Wenn diese digitalen Gebrauchswerte in die Allgemeinheit des Internets übergehen, entfremden sie sich den Subjekten, die sie geschaffen haben. Dadurch entstehen gigantische Archive geistiger Arbeit. Dass die Fähigkeiten aktueller KI-Modelle so mysteriös und magisch erscheinen, liegt daran, dass nicht die Modelle entscheidend sind: Es ist die Akkumulation jener Daten, an die sich Subjekte entäußert haben, die den entscheidenden Beitrag zu den Fähigkeiten der Systeme liefert.

Dieser Umstand verbirgt sich allerdings hinter einem ganzen Apparat fetischistischer Vorstellungen, die das zugrunde liegende soziale Verhältnis den Maschinen selbst zuschlagen. Das beginnt schon damit, dass man die Anpassung der Formelsysteme an die von Subjekten formierten Datensätze als Training bezeichnet. Training ist hier eine verwirrende Metapher, weil sie verwischt, wer Subjekt ist. Training erweckt den Eindruck eines lernenden Subjekts. Aber Subjekt sind die Menschen, die sich in die Struktur der Daten entäußern. Durch ständige Wiederholung von Befehlssequenzen (Iterationen) werden mathematische Formelsysteme angepasst, bis sie die mathematischen Regelmäßigkeiten in dem von Subjekten geformten Code reproduzieren können. Das Entscheidende ist hier aber die Entäußerung und der Verweis der Daten auf das Subjekt.

Maschinen mit Wissen und Gefühlen

Da das Problem der Entfremdung zentral für die gesamte Debatte um künstliche Intelligenz ist, wäre es angemessener, statt von Artificial Intelligence von Alienated Intelligence, entfremdeter Intelligenz, zu sprechen. Denn das ist der Kern und die ökonomische Existenzberechtigung des Projekts: die kollektiven, digitalisierten Entäußerungen geistiger Arbeit der Menschheit automatisch aus Maschinen zu reproduzieren und zu variieren.

In kapitalismuskritischen Debatten wird die Entfremdung häufig als ein Symptom, ein diffuses Gefühl des Verlorenseins, eine durch den Kapitalismus verursachte soziale Pathologie beschrieben. In Marx’ Verständnis ist Entfremdung jedoch kein Epiphänomen, das durch die kapitalistische Gesellschaftsformation erst entsteht, sondern ihre Grundlage und Voraussetzung. In gewisser Weise ist nicht die Entfremdung als Pathologie des Kapitalismus zu analysieren, sondern der Kapitalismus als Pathologie der Entfremdung. Die Arbeit unter entfremdenden Bedingungen führt zu entfremdeten Seinsformen, in denen sich die Gegenstände scheinbar gegen die Menschen wenden. Die Subjektivität kommt scheinbar den Dingen zu, während das tätige Subjekt in der Allgemeinheit als produzierender Automat erscheint. Hier wird offensichtlich, dass dieser Zusammenhang zur Analyse der Ideologien einer digitalisierten Gesellschaft, die einerseits Menschen wie Maschinen behandelt und andererseits davon überzeugt ist, dass Maschinen Subjekte sind – oder es bald werden –, zentral ist.

Wenn die Maschinen nur funktionieren, wenn sie den Ausdruck der Subjektivitäten der ganzen Menschheit als Arbeitsgrundlage haben, warum sollten sie dann das Privateigentum von einzelnen sein?

AGI oder Superintelligenz zu entwickeln, würde bedeuten, Maschinen mit Wissen und Gefühlen für Zeit, Raum, Kausalität, für den Unterschied zwischen leblosen Dingen und Subjekten und mit der Fähigkeit zur Begriffsbildung auszustatten. Es hieße nichts anderes, als sie mit Subjektivität auszustatten. Subjektivität haben aber Menschen. Die Maschinen als Aggregat sozialen Handelns können unter entfremdeten Bedingungen den Anschein von Subjektivität erwecken, weil die wahrgenommene Subjektivität dem Aggregat zugeschlagen wird und nicht den es konstituierenden Menschen.

Zurück zu Marx

Unter der Chiffre von der Artificial General Intelligence, der AGI, wird die Entfremdung auch innerhalb der KI-Welt diskutiert, nur eben unter ideologischen Vorzeichen: als hartnäckig der Erkenntnis entzogenes Geheimnis. Der Horizont der entfremdeten Arbeit bestimmt von Anfang an die Zielvorstellungen des Projektes, künstliche Intelligenz zu entwickeln. Karl Marx schrieb in den Ökonomisch-philosophischen Manuskripten: »Wie er also geistig und leiblich zur Maschine herabgedrückt und aus einem Menschen eine abstrakte Thätigkeit und ein Bauch wird, so wird er auch immer abhängiger von allen Schwankungen des Marktpreises, der Anwendung der Capitalien und der Laune d(es) Reichen.«

In dieser Bemerkung von Marx steckt schon der ganze Diskurs um künstliche Intelligenz, wie auch der ganze Transhumanismus. Es geht darum, die abstrakte Tätigkeit zu erhalten, ohne den Bauch mit Essen versorgen zu müssen. Aber wenn der Mensch nichts ist als eine abstrakte Tätigkeit und ein Bauch, so muss eine Maschine, die abstrakte Tätigkeiten ausübt, aus kapitalistischer Sicht mindestens so etwas sein wie ein synthetischer Mensch.

Dass Körper und Subjektivität der Arbeiter*innen unter den Bedingungen der Entfremdung nur als Ballast erscheinen, bestimmt die Imagination von Philosoph*innen und Wissenschaftler*innen, die es versäumen, die ideologische Prägung ihrer Axiome zu reflektieren; es bestimmt den utopischen Horizont der KI-Forschung bis jetzt, bestimmt das Körper-Geist-Verhältnis von uns allen, die wir das System des digitalen Kapitalismus bewohnen, und wird im Transhumanismus und seinen Lehren von Superintelligenz und AGI vollends virulent. Die KI-Forscherin Melanie Mitchell bemerkte dazu, dass KI oft als eine Art »reine Intelligenz« angesehen werde, die unabhängig von Emotionen, Irrationalität und körperlichen Einschränkungen wie dem Bedürfnis nach Essen und Schlaf sei. »Diese Annahme der Möglichkeit einer rein rationalen Intelligenz kann zu reißerischen Vorhersagen über die Risiken führen, denen wir durch zukünftige ›superintelligente‹ Maschinen ausgesetzt sein werden.«

Ohne den Mythos von der maschinellen Subjektivität müssten solche ML-Systeme als das beschrieben werden, was sie sind: Bildgenerierende Systeme müssten als die Aneignung der digital gespeicherten Arbeit von Künstler*innen, textgenerierende Systeme als Aneignung der gesammelten Textproduktion der Menschheit und programmierfähige Systeme als Aneignung der gesammelten Arbeit der Open-Source-Community verstanden werden.

Früher waren die Menschen auf die Innenräume von Fabriken beschränkt, für die Marx im Kapital detailliert beschrieb, wie die Arbeiter*innen ein Teil einer halborganischen Gesamtmaschinerie werden. Heute durchdringen und substituieren die Menschen als Maschinen bedienende Systeme die Sphäre des Sozialen unter dem Druck des sich aufstauenden Mehrwerts, um alle menschliche Verbindung für dessen Realisierung zu mobilisieren. Dabei ist dies alles eine ideologische Problematik spezifisch kapitalistischer Technologieverwendung. In einer nicht kapitalistischen Gesellschaft würden Maschinen, die repetitive Arbeiten erledigen, keinen Anlass für die Infragestellung des Menschseins bieten oder Fantasien über die baldige Ablösung der Menschheit durch Maschinengötter provozieren, sondern schlicht Gelegenheit für mehr Freizeit und Selbstentfaltung liefern.

Zum Wohl der Menschheit

Wir sehen gerade die ersten Anzeichen eines KI-Crashs, in dem die überzogenen ideologischen Erwartungen an LLM in sich zusammenfallen und die Börsenkurse mit sich reißen werden. Aber so wie das Internet mit der Dotcom-Krise nicht verschwunden ist, werden wahrscheinlich auch die LLM nicht mit dem KI-Crash verschwinden. Man kann ja tatsächlich nützliche Dinge mit ihnen anstellen, sie sind eben nur nicht gottgleich. Diesen Glauben an einen künstlichen Gott braucht am Ende nur der Finanzmarkt und niemand sonst.

Daher stellt sich nun die alte Frage nach der Expropriation der Expropriateure: Wenn diese Maschinen nur funktionieren, wenn sie den Ausdruck der Subjektivitäten der ganzen Menschheit als Arbeitsgrundlage haben, warum sollten sie dann das Privateigentum von einzelnen sein? Wenn Google, Meta und OpenAI mit ihrem transhumanistischen Geschwurbel und ihrer KI-Zockerei an der Börse eine Wirtschaftskrise auslösen, dann müssen diese Konzerne zerschlagen und ihre Technologie enteignet werden, um sie zum Wohl der Menschheit zu nutzen.

Max Franz Johann Schnetker

promoviert zu Ideologie und Materialität des digitalen Kapitalismus.

Thema in ak 720: künstliche Intelligenz

Thema in ak 720: künstliche Intelligenz