Weltweit wehren sich Arbeitnehmer gegen invasive KI-Tools zur Überwachung am Arbeitsplatz. Investigativjournalistin und Emmy-Award-Preisträgerin Hilke Schellmann von der New York
University im Courage-Interview.
von Rebekka Reinhard
Courage: Frau Schellmann, was würden Sie im Jahr 2024 jungen Menschen auf Jobsuche raten, was HR-Verantwortlichen?
Hilke Schellmann: Arbeitssuchende sollten sich klarmachen, dass KI standardmäßig auf großen Jobplattformen wie LinkedIn und in multinationalen Organisationen zum Einsatz kommt. ChatGPT kann beim Schreiben von Bewerbungen und der Vorbereitung auf Vorstellungsgespräche helfen. HR-Verantwortliche ermutige ich, KI-Tools kritisch zu testen. Trotz der Effizienz und Kosteneinsparungen durch KI gibt es wenig Beweise, dass diese Tools die am besten qualifizierten Kandidaten identifizieren und faire Empfehlungen geben.
Was hat Sie bei Ihren Recherchen überrascht?
Am meisten hat mich überrascht, wie weit verbreitet KI-Tools schon sind. Es ist erstaunlich, dass Unternehmen wie HireVue bis Ende 2022 über 30 Millionen Videointerviews mit (oder ohne) KI durchgeführt haben. Fast alle Fortune-500-Firmen benutzen KI-Tools in verschiedenen Stationen der Bewerbungsverfahren.
Hat das Ihre Sicht auf die KI verändert?
Ja. Anfangs dachte ich, dass die Maschinen besser und fairer in der Entscheidungsfindung sind. Das ist leider nicht so, denn Trainingsmaterial mit Vorurteilen führt zu unfairen Empfehlungen. Besonders alarmierend fand ich die Integration von Gesundheitsdaten in Arbeitsplatzentscheidungen. So gibt es sehr invasive KI-Tools, die persönliche Lebensveränderungen wie etwa einen (ehemaligen) Ehepartner, der nicht mehr über die Familie versichert ist, als Scheidung interpretieren und Angestellten vorschlagen, eine Therapie zu machen.
Das klingt, als ginge es nicht nur um Überwachung, sondern auch um Macht.
Überwachung am Arbeitsplatz ist ein asymmetrisches Machtgefälle. Im Extremfall sind Unternehmen jetzt in der Lage, Kandidaten mit KI zu bewerten, noch bevor diese sich bewerben. So könnten Arbeitssuchende aufgrund von Schlussfolgerungen aus ihren Onlineaktivitäten abgelehnt werden, ohne dass sie davon wissen oder dies kontrollieren können. Wir brauchen hier Transparenz und eine Regulierung, um Missbrauch zu verhindern.
Wie wird der EU AI Act die Verwendung von KI in Einstellungsprozessen beeinflussen?
Der EU AI Act stuft Einstellungsverfahren und Arbeitsprozesse als „High-Risk“-KI-Anwendungen ein – ein bedeutender Schritt zur Regulierung von KI. Diese Tools werden bereits in ganz Europa verwendet, einschließlich der Emotionserkennung in Jobinterviews und der Nutzung von KI bei der Einstellung in Großbritannien; die Firmen werden dies ändern müssen.
Worin unterscheiden sich hier die EU und die USA?
In den USA ist durch Gerichtsentscheidungen relativ klar, dass alles, was an einem Arbeitscomputer getan wird, Eigentum des Unternehmens ist, mit niedrigen Datenschutzstandards für Mitarbeitende. In der EU gibt es einen ganz anderen kulturellen und rechtlichen Ansatz zum Datenschutz. Der Einsatz von KI-Tools zur Überwachung von Mitarbeitenden ist aber ein wachsender Trend in beiden Regionen – Deutschland und Österreich sind hier Ausnahmen, da es das Recht zur Mitbestimmung durch einen Betriebsrat gibt. Wir brauchen Vorschriften, die den Datenschutz der Mitarbeitenden garantieren und zugleich Innovationen ermöglichen.
Was kann man gegen den Einsatz invasiver KI tun?
Es gibt eine weltweite Diskussion unter Arbeitnehmerorganisationen darüber, wie Gewerkschaften übermäßiger Überwachung widerstehen können. Der deutsche Betriebsrat ist ein starkes Vorbild. In Deutschland muss jede Technologie zur Überwachung von Mitarbeitenden vom Betriebsrat genehmigt werden, was einen gewissen Schutz und Widerstand gegen invasive KI-Tools bietet. Betriebsräte in Deutschland waren schon ganz erfolgreich darin, den Einsatz von KI zu begrenzen.
Sie selbst arbeiten an einem neuen Projekt?
In den USA ist es, vor allem wegen des fehlenden politischen Willens, eine Utopie, dass die Regierung KI-Tools vorab lizenziert, um sicherzustellen, dass sie keinen Schaden anrichten. Ich glaube, dass Non-Profit-Organisationen bei der Entwicklung und Prüfung von KI in Bewerbungsverfahren eine wichtige Rolle spielen können.
Damit sind Sie derzeit befasst?
Ja, ich arbeite unter anderem mit Informatikern, Psychologen und Soziologen an verschiedenen Universitäten zusammen. Dieser multidisziplinäre Ansatz erlaubt uns zu verstehen, wie KI-Tools in realen Bewerbungsverfahren funktionieren. Wir können Schwachstellen identifizieren und sowohl ethischere als auch effektivere Lösungen entwickeln. Solche Partnerschaften bieten ein Gegengewicht zu den großen Technologieunternehmen und ermöglichen die Entwicklung von KI, die der Menschheit wirklich zugutekommt.