Digitalisierung: Künstliche Intelligenz als Verteilungsfrage

von Matthias Spielkamp, algorithmwatch

Datum

Dachzeile einblick Juli-August 2024

“Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.”

 Wir sollten uns diesen Satz des Science-Fiction-Autors Arthur C. Clarke in Erinnerung rufen, wenn wir Debatten über Technologien auf dem Höhepunkt von Hype-Zyklen führen, wie es aktuell bei der so genannten “Künstlichen Intelligenz” (KI) der Fall ist. Ihre Möglichkeiten und Fähigkeiten werden erneut als grenzenlos beschrieben, vor allem, seitdem ChatGPT veröffentlicht wurde. Der Vorschuss-Jubel kann einem bekannt vorkommen. Erst kamen Kybernetik und Expertensysteme, irgendwann Big Data und die Cloud, dann KI. Jedes Mal hieß es, sie würden quasi automatisch unser aller Leben besser machen, solange man nur den Entwicklungen ihren Lauf lasse. Tatsächlich hat KI schon heute unser Leben massiv verändert. Doch eher nicht so, wie es anfangs prophezeit wurde.

KI ist längst Alltag  – doch bei der Lösung der großen Menschheits­probleme ist KI bisher wirkungslos

Denn zum einen ist Künstliche Intelligenz längst normaler Bestandteil unseres Alltags. Frei nach Douglas Adams Bonmot, dass “Technologie das Wort ist für Sachen, die noch nicht funktionieren”, sind Navigations­systeme, die Internetsuche oder automatische Übersetzungen Beispiele für hochentwickelte KI-Systeme, die wir als solche gar nicht mehr wahrnehmen. Denn – so ausgefuchst die Technologie dahinter ist: Diese Systeme tun einfach, was sie sollen. Doch was ist aus den Fortschritten geworden, die uns KI-Entwickler mit Weltverbesserungs-Gestus seit Jahren auch für die großen Menschheitsprobleme ankündigen? Bei großen Herausforderungen wie dem Klimawandel oder Lösungen gegen den Hunger auf der Welt bleibt KI bislang wirkungslos. Hartnäckig halten die KI-Missionare dennoch an ihrem Narrativ fest, dass “KI” auf der einen Seite zwar Risiken berge, auf der anderen Seite aber enorme Chancen biete. Und Risiken sind ja nur potenzielle Schäden, die noch nicht eingetreten sind – also alles halb so wild! Aber die Schäden sind längst da – und zwar in unserer Gegenwart.

Wer die negativen Folgen von KI benennt, gilt als fortschritts­feindliche*r Maschinenstürmer*in

ChatGPT und Konsorten verbrauchen unfassbare Mengen an Energie und so viel Wasser, dass in Südamerika Salzwasser ins Trinkwassersystem eingespeist wird, weil das Süßwasser Datenzentren kühlt. In digitalen Sweatshops korrigieren Menschen für zwei Dollar pro Stunde den übelsten Unsinn, den die angeblich so schlauen Chatbots produzieren, und Konzerne wie OpenAI, Microsoft und Google reißen sich für das Training ihrer Modelle die kreativen Leistungen von Millionen echter Menschen unter den Nagel – ohne jegliche Vergütung. Zugleich werden weltweit wohl zehntausende Frauen täglich mit KI-generierten Darstellungen sexueller Handlungen gedemütigt. Wer das benennt, wird schnell als fortschrittsfeindliche*r Maschinenstürmer*in abgestempelt. Diejenigen dagegen, die die magischen Fähigkeiten von “KI” beschwören, fast immer vor dem Hintergrund eigener finanzieller Interessen, dürfen das Eintreten ihrer Prognosen unwidersprochen in die Zukunft verschieben: Irgendwann werde „KI” dafür sorgen, dass es uns allen besser geht. Irgendwann. Und darum müssen wir mit den Schäden leben, die “KI” verursacht – und auf keinen Fall etwas dagegen tun, da es ja “Innovationen” hemmen könnte. Das ist gefährlicher Unsinn. Schon immer haben politische Kämpfe darüber entschieden, wie Schäden und Wohlstandsgewinne als Folge technischer Entwicklungen aufgeteilt wurden. Die weltweit fünf größten IT-Riesen – Apple, Alphabet-Google, Amazon, Meta und Microsoft – haben im Jahr 2023 gemeinsam 314 Milliarden Dollar Gewinn verbucht. Nahezu alle Versuche, einen angemessenen Teil davon in die Steuerkassen fließen zu lassen und die Unternehmen für negative Folgen ihres Handelns zur Verantwortung zu ziehen, verlaufen im Sande.

Wie EU-Regierungen KI-Unternehmen schützen, zeigt die Macht­verteilung zwischen Gemein­wohl und Privat­interesse.

In Deutschland ließ es sich Wirtschaftsminister Robert Habeck nicht nehmen, persönlich vor die Presse zu treten, um mit dem Aleph-Alpha-Gründer Jonas Andrulis zu verkünden, dass dessen Unternehmen 500 Millionen US-Dollar Kapital zugeschossen bekommt. Aleph Alpha entwickelt große Sprachmodelle, die mit ChatGPT und anderen konkurrieren können sollen. Das Geld kommt in erster Linie von den deutschen Unternehmen Schwarz Gruppe (Lidl, Kaufland), SAP und Bosch. In den Wochen darauf versuchten die Regierungen Deutschlands und Frankreichs, ihre “National Champions” (in Frankreich ist es Mistral AI) vor “Überregulierung” zu schützen, indem sie Regeln für große Sprachmodelle in der KI-Verordnung abschwächten, die zu dem Zeitpunkt verhandelt wurde. Das zeigt sehr deutlich, wie die Macht derzeit verteilt ist zwischen Gemeinwohl und Privatinteresse. Es ist höchste Zeit, sich daran zu erinnern, dass die Ludditen, die Maschinenstürmer*innen, keine Technikfeinde waren. Sie haben dagegen gekämpft, dass neue Webmaschinen dazu genutzt wurden, ihre Löhne so weit zu drücken, dass ihre Existenzgrundlagen vernichtet wurden. Wenn wir das vergessen, anstatt uns ein Beispiel an ihnen zu nehmen, werden wir eine Re-Feudalisierung unserer Gesellschaft erleben – mit einer herrschenden Klasse von Digitalisierungs- und „KI”-Gewinner*innen auf der einen Seite, und einer dienenden Klasse algorithmisch gemanagter Lakaien auf der anderen.  

Matthias Spielkamp ist Mitgründer und Geschäftsführer von AlgorithmWatch, einer Menschenrechtsorganisation, die sich dafür einsetzt, dass Algorithmen und Künstliche Intelligenz Gerechtigkeit, Demokratie und Nachhaltigkeit stärken, statt sie zu schwächen.

Der Artikel ist in der Juli-August-Ausgabe des DGB einblick erschienen.

 

zurück