AI kan discriminatie versterken maar als het op de

AI kan discriminatie versterken – maar als het op de juiste manier wordt gebruikt, kan het de personeelswerving inclusiever maken

Shift Drive / Shutterstock

Het aannemen van personeel wordt normaal gesproken gezien als een voorbeeld van algoritmische bias. Dit is waar een neiging om sommige groepen te bevoordelen ten opzichte van andere per ongeluk wordt vastgelegd in een AI-systeem dat is ontworpen om een specifieke taak uit te voeren.

Er zijn talloze verhalen hierover. Misschien wel het bekendste voorbeeld is toen Amazon probeerde AI te gebruiken bij werving en selectie. In dit geval werden CV’s gebruikt als data om deze AI te trainen, of te verbeteren.

Omdat de meeste CV’s van mannen waren, leerde de AI om alles uit te filteren wat geassocieerd werd met vrouwen, zoals voorzitter zijn van de vrouwenschaakclub of afgestudeerd zijn aan een vrouwenuniversiteit. Onnodig te zeggen dat Amazon het systeem uiteindelijk niet op grotere schaal ging gebruiken.

Op dezelfde manier wordt de praktijk van het filmen van video-interviews en het vervolgens gebruiken van een AI om deze te analyseren op geschiktheid van een kandidaat regelmatig bekritiseerd vanwege het potentieel om bevooroordeelde uitkomsten te produceren. Toch suggereren voorstanders van AI bij het aannemen van personeel dat het aanwervingsprocessen eerlijker en transparanter maakt door menselijke vooroordelen te verminderen. Dit roept een vraag op: is het onvermijdelijk dat AI bij het aannemen van personeel vooroordelen reproduceert, of zou het juist het aannemen van personeel eerlijker kunnen maken?

Vanuit een technisch perspectief verwijst algoritmische bias naar fouten die leiden tot ongelijke uitkomsten voor verschillende groepen. Maar in plaats van algoritmische bias te zien als een fout, kan het ook gezien worden als een functie van de samenleving. AI is vaak gebaseerd op gegevens uit de echte wereld en deze datasets weerspiegelen de samenleving.

Als vrouwen van kleur bijvoorbeeld ondervertegenwoordigd zijn in datasets, heeft gezichtsherkenningssoftware een hoger faalpercentage bij het identificeren van vrouwen met een donkere huidskleur. Ook voor video-interviews is er bezorgdheid dat de toon van de stem, het accent of geslachts- en rasspecifieke taalpatronen de beoordelingen kunnen beïnvloeden.

Meervoudige vooroordelen

Een ander voorbeeld is dat AI op basis van gegevens zou kunnen leren dat mensen met de naam “Mark” het beter doen dan mensen met de naam “Mary” en dus hoger gerangschikt worden. Bestaande vooroordelen in de samenleving worden weerspiegeld in en versterkt door gegevens.

Natuurlijk zijn gegevens niet de enige manier waarop AI-ondersteunde werving bevooroordeeld kan zijn. Bij het ontwerpen van AI wordt een beroep gedaan op de expertise van verschillende mensen, zoals datawetenschappers en experts in machinaal leren (waarbij een AI-systeem kan worden getraind om beter te worden in wat het doet), programmeurs, HR-professionals, recruiters, arbeids- en organisatiepsychologen en wervingsmanagers, maar vaak wordt beweerd dat slechts 12% van de onderzoekers op het gebied van machinaal leren vrouw is. Dit doet vrezen dat de groep mensen die deze technologieën ontwerpt nogal smal is.

Processen van machinaal leren kunnen ook bevooroordeeld zijn. Een bedrijf dat gegevens gebruikt om bedrijven te helpen bij het inhuren van programmeurs ontdekte bijvoorbeeld dat een sterke voorspeller voor goede codeervaardigheden het frequent bezoeken van een bepaalde Japanse cartoonwebsite was. Hypothetisch gezien, als je programmeurs zou willen inhuren en dergelijke gegevens zou willen gebruiken in machine learning, zou een AI kunnen voorstellen om zich te richten op individuen die programmering hebben gestudeerd aan de universiteit, “programmeur” in hun huidige functietitel hebben en van Japanse cartoons houden. Terwijl de eerste twee criteria functievereisten zijn, is de laatste niet vereist om de baan uit te voeren en moet daarom niet worden gebruikt. Daarom moet er goed worden nagedacht over het ontwerp van AI in aanwervingstechnologieën als we algoritmen willen maken die inclusie ondersteunen.

Effectbeoordelingen en AI-audits die systematisch controleren op discriminerende effecten zijn cruciaal om ervoor te zorgen dat AI bij het aannemen van personeel geen vooroordelen in stand houdt. De bevindingen kunnen dan worden gebruikt om de technologie aan te passen en bij te stellen om ervoor te zorgen dat dergelijke vooroordelen niet meer voorkomen.

Zorgvuldige afweging

Aanbieders van wervingstechnologieën hebben verschillende hulpmiddelen ontwikkeld, zoals audits om uitkomsten te toetsen aan beschermde kenmerken of controle op discriminatie door mannelijke en vrouwelijke woorden te identificeren. Als zodanig kunnen audits een nuttig hulpmiddel zijn om te evalueren of wervingstechnologieën bevooroordeelde resultaten opleveren en om dat te corrigeren.

Leidt het gebruik van AI bij aanwerving dan onvermijdelijk tot discriminatie? In mijn recente artikel toonde ik aan dat als AI op een naïeve manier wordt gebruikt, zonder waarborgen te implementeren om algoritmische vooroordelen te vermijden, de technologie bestaande vooroordelen in de samenleving zal herhalen en versterken en mogelijk ook nieuwe vooroordelen zal creëren die voorheen niet bestonden.

Als de technologie echter wordt geïmplementeerd met aandacht voor inclusie in de onderliggende gegevens, in de gebruikte ontwerpen en in de manier waarop beslissingen worden genomen, kan AI-ondersteund inhuren in feite een hulpmiddel zijn om meer inclusie te creëren.

AI-ondersteunde werving betekent niet dat de uiteindelijke wervingsbeslissingen worden of moeten worden overgelaten aan algoritmen. Dergelijke technologieën kunnen worden gebruikt om kandidaten te filteren, maar de uiteindelijke aanwervingsbeslissingen liggen bij mensen. Daarom kan het aannemen van personeel worden verbeterd als AI wordt geïmplementeerd met aandacht voor diversiteit en inclusie. Maar als de uiteindelijke wervingsbeslissing wordt genomen door een wervingsmanager die niet weet hoe hij een inclusieve omgeving moet creëren, kan vooringenomenheid weer de kop opsteken.

Het Gesprek

Elisabeth Kelan ontvangt financiering van een Leverhulme Trust Major Research Fellowship (MRF-2019-069) en een beurs van de British Academy (SRG20200195).

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.