Voor minderheden kunnen bevooroordeelde AI algoritmen bijna elk deel van het

Voor minderheden kunnen bevooroordeelde AI-algoritmen bijna elk deel van het leven beschadigen

shutterstock

Slechte gegevens leiden niet alleen tot slechte resultaten. Ze kunnen ook helpen om delen van de samenleving te onderdrukken, bijvoorbeeld kwetsbare vrouwen en minderheden.

Dit is het argument van mijn nieuwe boek over de relatie tussen verschillende vormen van racisme en seksisme en kunstmatige intelligentie (AI). Het probleem is acuut. Algoritmes moeten over het algemeen worden blootgesteld aan gegevens – vaak afkomstig van het internet – om beter te worden in wat ze ook doen, zoals het screenen van sollicitaties of het goedkeuren van hypotheken.

Maar de trainingsgegevens bevatten vaak veel van de vooroordelen die in de echte wereld bestaan. Algoritmes kunnen bijvoorbeeld leren dat de meeste mensen in een bepaalde functie mannen zijn en daarom de voorkeur geven aan mannen bij sollicitaties. Onze gegevens zijn vervuild door een aantal mythen uit het tijdperk van de “verlichting”, waaronder vooroordelen die leiden tot discriminatie op basis van geslacht en seksuele identiteit.

Te oordelen naar de geschiedenis in samenlevingen waar racisme een rol heeft gespeeld bij het
het vestigen van de sociale en politieke orde, waarbij privileges werden verleend aan blanke mannen — in Europa, Noord-Amerika en Australië bijvoorbeeld — is het eenvoudige wetenschap om aan te nemen dat residuen van racistische discriminatie onze technologie voeden.

In mijn onderzoek voor het boek heb ik een aantal prominente voorbeelden gedocumenteerd. Gezichtsherkenningssoftware identificeert vaker zwarte en Aziatische minderheden verkeerd, wat leidt tot valse arrestaties in de VS en elders.

Software die gebruikt wordt in het strafrechtelijk systeem heeft voorspeld dat zwarte delinquenten meer zouden recidiveren dan ze deden. Er zijn verkeerde beslissingen genomen in de gezondheidszorg. Uit een onderzoek bleek dat van de zwarte en blanke patiënten die dezelfde gezondheidsrisicoscore kregen toegewezen door een algoritme dat gebruikt wordt in het Amerikaanse gezondheidsmanagement, de zwarte patiënten vaak zieker waren dan hun blanke tegenhangers.

Hierdoor werden meer dan de helft minder zwarte patiënten geïdentificeerd voor extra zorg. Omdat er minder geld werd uitgegeven aan zwarte patiënten die evenveel zorg nodig hadden als blanken, concludeerde het algoritme ten onrechte dat zwarte patiënten gezonder waren dan even zieke blanke patiënten. Het weigeren van hypotheken voor minderheidsgroepen wordt vergemakkelijkt door bevooroordeelde datasets. De lijst gaat maar door.

Machines liegen niet?

Zulke onderdrukkende algoritmen dringen bijna overal in ons leven binnen. AI maakt het alleen maar erger, omdat het aan ons wordt verkocht als in wezen onbevooroordeeld. Er wordt ons verteld dat machines niet liegen. Daarom, zo luidt de logica, treft niemand blaam.

Deze pseudo-objectiviteit staat centraal in de AI-hype die gecreëerd is door de techgiganten uit Silicon Valley. Het is gemakkelijk af te lezen uit de toespraken van Elon Musk, Mark Zuckerberg en Bill Gates, ook al waarschuwen ze af en toe
voor de projecten waar ze zelf verantwoordelijk voor zijn.

Er spelen verschillende onopgeloste juridische en ethische kwesties. Wie is verantwoordelijk voor de fouten? Kan iemand schadevergoeding eisen voor een algoritme dat hem voorwaardelijk vrijlaat op basis van zijn etnische achtergrond, net zoals iemand schadevergoeding kan eisen voor een broodrooster dat ontploft in een keuken?

De ondoorzichtige aard van AI-technologie vormt een serieuze uitdaging voor rechtssystemen die gebouwd zijn rond individuele of menselijke verantwoordelijkheid. Op een meer fundamenteel niveau worden fundamentele mensenrechten bedreigd, omdat wettelijke aansprakelijkheid vervaagt door het doolhof van technologie tussen de daders en de verschillende vormen van discriminatie die gemakkelijk aan de machine kunnen worden toegeschreven.

Racisme is altijd een systematische strategie geweest om de samenleving te ordenen. Het bouwt, legitimeert en dwingt hiërarchieën af tussen de haves en de have-nots.

Ethisch en wettelijk vacuüm

In zo’n wereld, waar het moeilijk is om waarheid en realiteit te onderscheiden van onwaarheid, moet onze privacy wettelijk beschermd worden. Het recht op privacy en het daarmee samenhangende eigendomsrecht op onze virtuele en reële gegevens moet worden gecodificeerd als een mensenrecht, niet in de laatste plaats om de reële mogelijkheden van goede AI voor de veiligheid van de mens te benutten.

Maar zoals het er nu voor staat, zijn de vernieuwers ons ver vooruit. De technologie heeft de
wetgeving ingehaald. Het ethische en juridische vacuüm dat zo ontstaat, wordt gemakkelijk uitgebuit door criminelen, omdat deze brave new AI-wereld grotendeels anarchistisch is.

Geblinddoekt door de fouten uit het verleden, zijn we in een wildwest terechtgekomen zonder sheriffs om toezicht te houden op het geweld van de digitale wereld die ons dagelijks leven omhult. De tragedies gebeuren al dagelijks.

Het is tijd om de ethische, politieke en sociale kosten tegen te gaan met een gezamenlijke sociale beweging ter ondersteuning van wetgeving. De eerste stap is om onszelf voor te lichten over wat er nu gebeurt, want ons leven zal nooit meer hetzelfde zijn. Het is onze verantwoordelijkheid om de koers uit te zetten voor deze nieuwe AI-toekomst. Alleen op deze manier kan een goed gebruik van AI worden gecodificeerd in lokale, nationale en wereldwijde instellingen.

De conversatie

Arshin Adib-Moghaddam werkt niet voor, voert geen advies uit over, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat hebben bij dit artikel en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.