Fast 13.000 verschiedene KI-Anwendungen listet die Webseite thereisanaiforthat.com auf. Jeden Tag kommen dutzende neue Produkte mit dem Versprechen auf den Markt, die Welt besser zu machen. Marketing beherrschen KI-Startups ziemlich gut. Ihnen geht es doch vor allem darum, neues Investorengeld zu akquirieren. Von den zahlenden Nutzer*innen können nur die wenigsten leben. Ob all diese Tools wirklich Probleme lösen, wird die Zeit zeigen. Selbst bei den aktuell sehr prominenten Sprachmodellen wie ChatGPT oder Google Gemini haben einige Expert*innen Zweifel, dass sie langfristig stabile Ergebnisse liefern. Neben den Sprachmodellen drängen auch Startups im Bereich der algorithmischen Vorhersage in die Arbeitswelt. Seit Jahren versprechen sie zum Beispiel Risiken in Lieferketten durch umfangreiche, globale Datenanalyse herauszufiltern. Durch die Lieferkettengesetze wähnt sich die Branche im Aufwind.
Lieferketten: KI-Analyse soll Unternehmen schützen
Das Gesetz ist ein großer Erfolg – auch für die internationale Gewerkschaftsbewegung. Unerträglich schlechte Arbeitsbedingungen in den Sweatshops des globalen Südens, Kinderarbeit, schwere Unfälle in Textilfabriken oder Minen sollen endlich der Vergangenheit angehören. Westliche Konzerne sind mitverantwortlich für Arbeits- und Umweltbedingungen entlang ihrer Lieferketten. Lange bevor das Gesetz in diesem Jahr endlich beschlossen wurde, haben Startups den Schutz globaler Lieferketten als Geschäftsmodell ausgemacht – allerdings ausschließlich im Sinn der Unternehmen. Mit KI-betriebenen Plattformen wollen sie Konzerne frühzeitig vor politischen Unruhen, lokalen Unwettern, Kinderarbeit aber auch Streiks in den Produktionsländern warnen. Das Versprechen: Möglichst alle Risiken entlang der Lieferkette sollen vermieden werden, am besten schon, bevor diese akut werden. Dafür analysieren diese KI-Startups angeblich unzählige Datenquellen: Social Media, Online-News, Behördenmeldungen, Börsenindizes und Co. werden dafür weltweit gesichtet. Schlaue Algorithmen werten die Daten aus und berechnen das Risiko. Häufen sich etwa Posts auf Social Media oder Newsportalen, in denen sich Beschäftigte negativ über Arbeitsbedingungen äußern, dann steigt die Wahrscheinlichkeit für Streiks. Unternehmen werden dann gewarnt und könnten Zulieferbetriebe in anderen Regionen anheuern. Die Startups nutzen nun das neue Lieferkettengesetz, um Werbung für ihre Dienste zu machen.
Für Arbeitnehmer*innen und die internationale Gewerkschaftsbewegung ist das eine Herausforderung, hebelt es doch auf der einen Seite Arbeitnehmerrechte aus. Auf der anderen Seite kann diese Software natürlich auch schlechte Arbeitsbedingungen, Ausbeutung oder Kinderarbeit identifizieren. Weltweit gibt es ein bis zwei Dutzend KI-Unternehmen, die diese Analysen anbieten.
Studie untersucht KI-Startups
Ein von der Hans-Böckler-Stiftung gefördertes Forschungsprojekt hat diese Szene unter die Lupe genommen und bereitet aktuell die gewonnen Erkenntnisse auf. Die Forscher wollen unter anderem herausfinden, wie diese Software funktioniert und welche Folgen sie hat. Die Wissenschaftler haben in den vergangenen zwei Jahren dutzende Interviews mit Vertreter*innen aus Unternehmen, Wissenschaft, Startups und Gewerkschaften geführt. Lukas Daniel Klausner vom Department Informatik und Security der Fachhochschule St. Pölten erläutert, dass es bei der Studie nicht nur darum geht, die Risiken zu untersuchen, sondern auch herauszufinden, wie solche Systeme für gute Arbeit eingesetzt werden können.
Künstliche Intelligenz als Chance für Gute Arbeit?
Mit seinen Kollegen Maximilian Heimstädt und Leonhard Dobusch leistet er Pionierarbeit. Einerseits setzen sie die Auswirkungen auf die Arbeitnehmer*innen ins Zentrum ihrer Forschung. Andererseits erforschen sie insbesondere, welche Folgen diese neuen Methoden für die Herstellung und Aushandlung von Transparenz in der Lieferkette haben. Bisher ist über die Funktionsweise und die Folgen dieser Geschäftsmodelle nichts bekannt. Auf Unterstützung durch die KI-Unternehmen können die Forscher dabei nicht setzen. Keines der angefragten Unternehmen hat sich zurückgemeldet. Die Ergebnisse ihrer Studie werden sie in den kommenden Monaten veröffentlichen. In einem Beitrag aus dem vergangenen Jahr skizzieren die Forscher, welche Akteure bei dieser Form der algorithmischen Vorhersage verantwortlich sind. Neben KI-Startups und Leitunternehmen sehen sie Gewerkschaften und Betriebsräte in der Pflicht. So könnten sie sich dafür einsetzen, dass bestimmte Nutzungsarten der KI-Vorhersage geächtet werden und es künftig Mindeststandards für diese Software gibt. Die Forscher sehen allerdings auch, dass Arbeitnehmervertretungen KI-Vorhersagen selbst nutzen könnten, um neue Mitglieder zu finden oder um schlechte Arbeitsbedingungen zu identifizieren.
Der Artikel ist in der Juli-August-Ausgabe des DGB einblick erschienen.