„Always [to] be considered high risk“. So schreibt es Die EU-Kommission in ihrem Weißbuch, wenn es um die Anwendung von Künstlicher Intelligenz (KI) in der Personalauswahl geht. Dieser Anwendungsfall soll bei der Regulierung von Algorithmen besonders berücksichtigt werden, weil hier viel schiefgehen kann. Das stimmt, allerdings geht schon seit Jahren viel zu viel schief. Und das hat wenig mit Algorithmen zu tun.
Der Status-Quo am Arbeitsmarkt ist weiterhin diskriminierend. Auch das Allgemeine Gleichbehandlungsgesetz (AGG), Trainings oder groß aufgesetzte Kampagnen konnten dies bisher nicht ändern. Darüber hinaus kommen bei der Personalauswahl seit Jahren Instrumente zum Einsatz, die nicht nur wissenschaftlich betrachtet schlecht, sondern auch gesellschaftlich gesehen fragwürdig sind. Bisher ist aber keine politische Initiative zum Verbot von Schädeldeutung, Grafologie oder Astrologie bekannt, und das sind nur die Extrembeispiele unseriöser Personalauswahl.
Man könnte behaupten, dass jegliche Regulierung gar nicht notwendig sei, da schlechte Instrumente kaum eingesetzt werden. Das gilt dann auch für Algorithmen in der Personalauswahl, denn Sie finden in der Praxis bisher noch keine signifikante Anwendung. Viel diskutierte Negativ-Beispiele, wie das Schätzen der Persönlichkeit von Bewerbenden aus Anschreiben, Sprachaufnahmen oder Videos, haben zwar viel Aufmerksamkeit erlangt, werden aber glücklicherweise kaum genutzt. Das kann sich in der Zukunft ändern. Dennoch erscheint in diesem Kontext die Diskussion über die Regulierung von KI in der Personalauswahl als theoretische Übung.
Keine einfachen Antworten
Zunächst hängt es stark vom Anwendungsfeld ab, ob eine Regulierung Sinn macht oder nicht. Manche Szenarien, wie zum Beispiel die Rechtsprechung, erfordern zwangsläufig Einzelfallgerechtigkeit. Fehler führen dazu, dass Menschen unberechtigte Strafen verbüßen müssen. Falsche Entscheidungen im Einzelfall sind auch bei der Personalauswahl schlecht, aber bei Einstellungsentscheidungen scheitern wir nicht erst im Einzelfall, sondern bereits bei der Gruppenfairness. Die Studienlage ist eindeutig, es gibt systematische Benachteiligungen bestimmter Gruppen und dadurch weiterhin keine Chancengleichheit. Vornehmliche Aufgabe muss es sein, diese Unterschiede abzubauen. Da diese allerdings nicht durch Algorithmen ausgelöst wurden, kann eine Regulierung sie auch nicht abbauen.
Es ist aktuell nicht auszuschließen, dass Algorithmen diese Unterschiede dennoch manifestieren oder sogar größer werden lassen. Genauso könnten Algorithmen aber auch eine Möglichkeit sein, diese Unterschiede abzubauen – gerade in Ermangelung alternativer Lösungsansätze. In diesem Kontext werden meist Anti-Bias-Trainings für Personalverantwortliche als Heilmittel genannt. In der Forschung ist der Nutzen solcher Trainings bisher aber alles andere als belegt.
Mit Blick auf Algorithmen in der Personalauswahl existieren viel zu wenige konkrete Praxisbeispiele und Validierungsstudien, um eine abschließende Bewertung vorzunehmen. Neben den oft erwähnten Gefahren gibt es auch Studien, die zeigen, dass bestimmte Algorithmen nicht diskriminieren. Das ist dann aber kein Selbstläufer, sondern beider Programmierung der Algorithmen und vor allem der Auswahl der Trainingsdaten bedacht worden.
Was soll überhaupt reguliert werden?
Natürlich machen den Start-ups, die KI-Lösungen anbieten, kostspielige Zertifizierungsprozesse mehr Sorgen als etablierten Großkonzernen. Natürlich nehmen Anbieter – manche zurecht, andere eher aus Gründen des Marketings – in Anspruch, dass ihre Instrumente das Problem eher lösen als verschärfen. Die Geschichte der Personalauswahl zeigt aber in jedem Fall, dass auch unwissenschaftliche Lösungen am Markt existieren können. Der weltweit wahrscheinlich am häufigsten genutzte Persönlichkeitstest – der Myers-Briggs-Typenindikator – wurde von Psychologen schon vor Jahrzehnten als schlecht befunden.
Regulierung kann in diesem Bereich durchaus helfen. Vorher sollte aber klar sein, was überhaupt genau reguliert werden soll. Geht es hier nur um Algorithmen? Was ist, wenn andere Personalauswahlinstrumente zu Diskriminierung führen? Was ist, wenn diese nicht diskriminieren, sondern „nur“ schlechte Entscheidungen treffen? Was ist überhaupt KI, was zählt als Algorithmus? Es ist aktuell noch nicht abzusehen, welche Ansätze sich in diesem Anwendungsfall durchsetzen werden und inwieweit diese hilfreich oder problematisch sind. Für eine passgenaue und faire Regulierung ist das aber eine sehr wichtige Information. In der Zwischenzeit können bestehende Regulierungen zu Datenschutz und allgemeiner Gleichbehandlung als Leitplanken dienen.
Philipp Karl Seegers ist Research Fellow an der Universität Maastricht und Mitgründer des HR-Tech-Start-ups „candidate select“ – kurz CASE. CASE entwickelt Algorithmen, welche helfen Bildungsabschlüsse zu vergleichen. Darüber hinaus forscht CASE zusammen mit der Universität zu Köln im Rahmen des staatliche geförderten Forschungsvorhabens „FAIR“ (Fair Artificial Intelligence Recruiting, www.fair.nrw) zu der Entwicklung diskriminierungsfreier Algorithmen für die Personalauswahl.