Google, Amazon und Microsoft schwören darauf: «Work Force Analytics» oder «People Analytics», beides bezeichnet die Analyse von Daten aus dem Personalwesen in Verbindung mit anderen Unternehmensdaten. Grundlage dafür bildet die Analyse von Kandidierenden und Mitarbeitenden durch standardisierte Fragebogen. Es sind eigentliche Persönlichkeitstests, oft durchgeführt mittels Skalenfragen.
«Ich bevorzuge alleine zu arbeiten.» Was wäre Ihre Antwort auf einer Skala von 1 bis 10?
«Auch in angespannten Situationen bleibe ich ruhig.» Und was wäre Ihr Gefühl beim Beantworten dieser Frage? Die Antwort auf eine Vielzahl solcher Fragen ergeben ein Persönlichkeitsprofil.
Aus Sicht des Unternehmens stellen sich andere Fragen. Personelle Fehlentscheidungen können kostenintensive Folgen haben. People Analytics soll dieses Risiko mindern. Persönliche Vorlieben und Vorurteile der Rekrutierenden werden damit umschifft, normative Rollenbilder verringert. Nur noch die geeignetsten Kandidierenden sollen entdeckt und gefördert werden. Ein Versprechen dieses Vorgehens ist, dass unter anderem auch Minderheiten oder oft benachteiligte Gruppen in der Arbeitswelt zum Zug kommen.
Mittlerweile ist die Praxis weit verbreitet – auch in der Schweiz. Deloitte, eine der weltweit grössten Prüfungs- und Beratungsgesellschaften, führte eine Studie zum Einsatz von People Analytics in Schweizer Unternehmen durch. Gemäss ihrem Bericht von 2020 halten im Schnitt vier von fünf befragten Unternehmen People Analytics für wichtig oder für sehr wichtig. Sie erwarten auch, dass deren Bedeutung in den nächsten zwei bis fünf Jahren zunehmen wird.
Diversität
In der Betriebswirtschaftslehre bedeutet Diversity Management nicht nur, dass Unterschiede toleriert werden, sondern dass sie als Potenzial und Wettbewerbsvorteil genutzt werden.
Warum ist Diversität heute ein Vor- und kein Nachteil?
Das überrascht wenig, es geht schliesslich auch um Diversität und Inklusion, beides hochrelevante, aktuelle Themen. Viele Unternehmen analysieren derzeit, wie gut sie in den Bereichen Geschlecht, Alter und Lohn aufgestellt sind. Offensichtlich werde Diversität zunehmend als ein Anliegen verstanden, das über das Thema Gender hinausgehe, schreibt Deloitte in dem Bericht.
Verhaltensökonomin Iris Bohnet, Professorin an Harvard Universität und Mitglied des Verwaltungsrats der Credit Suisse Group, ist überzeugt, dass Diversität heute nicht nur ein Anliegen unterrepräsentierter Gruppierungen ist, sondern eine allgemeine Notwendigkeit. Die Autorin des Buchs «What Works: Gender Equality By Design», nennt dafür zwei Gründe. Erstens gehe es um Rechtsgleichheit: Alle Menschen sollten die gleichen Chancen haben, in die Berufswelt einzusteigen und dort eine Rolle zu spielen, sagt sie. Zweitens sei es eine Frage der Ökonomie. Talent-Pools würden immer diverser, und das homogene Ideal von «weiss und männlich» entspreche nicht mehr der demographischen Realität. Kein Unternehmen wolle einen Grossteil der Bewerbenden ausschliessen. «Zudem zeigt die Forschung, dass diverse Teams kreativer sind und vor allem in schwierigen Zeiten besser abschneiden als homogene. Und daher ist es einfach ein gutes Argument für Firmen, die innovativ sein wollen, Leute zu haben, die verschiedene Gesichtspunkte widerspiegeln», sagt Bohnet.
Es geht auch schlicht um den finanziellen Erfolg, und dieser stellt sich mit Diversität tatsächlich ein. Laut einer Studie des McKinsey Global Institute, in der 1000 Unternehmen in 15 Ländern untersucht wurden, haben Firmen mit hoher Gender-Diversität eine um 25 Prozent grössere Wahrscheinlichkeit, überdurchschnittlich profitabel zu sein. Betrachtet man den Faktor der ethnischen Diversität, liegt dieser Wert sogar bei 36 Prozent.
«Es ist viel einfacher, Algorithmen vorurteilsfrei zu programmieren als Millionen von Menschen zu ändern»Iris Bohnet, Verhaltensökonomin
«Diversitätsprogramme bringen nichts»
Im Resultat betreibt Bohnet eine Umkehrung der Herangehensweise: Nicht Diversität soll im Vordergrund stehen, sondern die Performance, die sich aus Diversität ergibt. Denn wenn man die Zahlen der sogenannten «Förderprogramme» anschaue, stelle man fest, dass sich nichts geändert habe, sagt sie: «Auf der Datenbasis, die wir heute haben, gibt es keine ermutigende Evidenz, dass Frauenförderungsprogramme etwas bringen.»
Der Grund dafür sei der falsche Ansatz: Die Frauenförderungsprogramme seien gescheitert, «weil wir keine Änderungen im System vornehmen». «Alleine das Wort impliziert, dass Frauen eine Art von Handicap haben», sagt Iris Bohnet. Denn es dürfe nicht darum gehen, die Frauen zu korrigieren oder die Frauen für die Welt fit zu machen, sondern im Gegenteil, die Geschäftswelt an die Realität anzupassen. Frauenförderungen sei schliesslich nicht ein Diversitätsthema sondern eine Frage der Gleichstellung, Gleichberechtigung und Chancengleichheit. Doch diese Vorurteile aus unseren Köpfen weg zu programmieren, sei schwierig.
Für Iris Bohnet spielt People Analytics in dieser Hinsicht eine wichtige Rolle. «Es ist viel einfacher, Algorithmen vorurteilsfrei zu programmieren als Millionen von Menschen zu ändern», sagt sie – und sieht dennoch eine Gefahr: Fehler können ungleich grösser werden, denn diese Tools werden bei Millionen von Menschen eingesetzt. Bei herkömmlichen Auswahlverfahren bleiben Fehlentscheide normalerweise auf eine kleine Gruppe begrenzt – mit den Tools werden sie skaliert.
Künstliche Intelligenz – ein zweischneidiges Schwert
In Drucksituationen können Algorithmen die Menschen vor unbewussten Vorurteilen schützen, sagt Joanna Bryson, Professorin für Ethik und Technologie an der Hertie School in Berlin. Wenn eine rekrutierende Person hunderte von Bewerbungen durchblättert und den Job schnell erledigen muss, kann sie impliziten Vorurteilen erliegen – auch wenn sie ein vielfältiges Team bilden will. Bryson, die sich in ihrer Forschung auf die Auswirkungen von Technologie auf die menschliche Zusammenarbeit konzentriert, sieht darum eine Chance in KI. Damit könnten die Verantwortlichen ihre eigene Begrenzung überlisten und so eher die optimalen Kandidierenden finden. Darunter seien dann oft auch Menschen, «die sie vorher nicht sehen konnten».
Doch ihre eigene Studie über englische Sprache habe auch gezeigt, dass Algorithmen die gleichen impliziten Vorurteile haben können wie Menschen, «weil sie von unserer Datenbasis lernen». Deshalb müsse man vorsichtig sein, gerade beim Programmieren von KI. «Sonst besteht die Gefahr, dass mit People Analytics implizierte Vorurteile verstärkt werden», sagt die Mathematikerin.
Auch Algorithmen sind beeinflusst
Das zeigt auch eine Studie von drei Forschenden am MIT und der Columbia University, die verschiedene Algorithmus-Modelle entwickelt und getestet haben. Sie stellten fest, dass es signifikante Unterschiede gibt, je nachdem, ob sich die Programme auf die nachgewiesene Erfolgsbilanz der Kandidierenden beschränken oder ob sie auch das Potenzial von Personen aus unterrepräsentierten Gruppen einbeziehen. Die Studie kommt zum Schluss, dass sich mit Fokus auf das Potenzial die verbessert und vielfältigere Kandidierende eingestellt werden. Firmen hingegen, deren Algorithmen sich nur die Erfolgsbilanz stützen, laufen Gefahr, qualitativ hochstehende Bewerber mit diverseren Hintergründen zu verpassen.
«Verantwortliche müssen mitdenken»
«Deshalb muss sich ein Unternehmen schon beim Kauf eines Programms gewisse Fragen stellen», sagt Simon Schafheitle vom Forschungsinstitut für Arbeit und Arbeitswelten der Universität St.Gallen. So müsse etwa geprüft werden, ob das Team hinter dem Algorithmus selbst divers ausgerichtet ist. Schafheitle sieht eine weitere Herausforderung: Die Chefetage hätte oft das Gefühl, dass Technologie ein Allheilsbringer sei. Doch oft sei das Gegenteil der Fall. «Denn plötzlich müssen sie sich entscheiden, wie damit umzugehen ist, wenn das Ergebnis des Algorithmus den Vorstellungen der Verantwortlichen widerspricht.» Wem gibt man dann mehr Gewicht: Dem teuren Programm oder dem erfahrenen HR-Management? Der Algorithmus berechne die optimale Bewerbung, aber vielleicht nicht die beste. Es wäre ja möglich, dass ein kreativer Querdenker für den Job besser geeignet ist als der angepasste Karrierist.
Zudem zeige die empirische Forschung in der analogen Welt ganz klar, dass die Resultate je nach Kulturkreis oder Unternehmenskultur variierten und auch unterschiedlich verstanden würden. «Und das potenziert sich und lässt sich auch in die digitale Welt übertragen», sagt er.
Iris Bohnet ihrerseits empfiehlt die Schaffung einer Zulassungsbehörde, die Kriterien und Bedingungen für den Einsatz der Algorithmen festlegt, bevor diese auf den Markt gebracht werden. «Wir setzen ja neue Medikamente auch nicht bei Menschen ein, ohne dass diese in Studien getestet werden.»