AI wordt al gebruikt in het rechtssysteem we moeten

AI wordt al gebruikt in het rechtssysteem – we moeten meer aandacht besteden aan hoe we het gebruiken

shutterstock

Kunstmatige intelligentie (AI) is zo’n onderdeel van ons dagelijks leven geworden dat we er moeilijk omheen kunnen – ook al herkennen we het misschien niet.

Terwijl ChatGPT en het gebruik van algoritmen in sociale media veel aandacht krijgen, is een belangrijk gebied waar AI een impact belooft te hebben het recht.

Het idee dat AI schuld bepaalt in rechtszaken lijkt misschien vergezocht, maar het is er een waar we nu serieus over moeten nadenken.

Dat komt omdat het vragen oproept over de verenigbaarheid van AI met het voeren van eerlijke processen. De EU heeft wetgeving opgesteld om te regelen hoe AI wel en niet kan worden gebruikt in het strafrecht.

In Noord-Amerika zijn algoritmen die ontworpen zijn om eerlijke processen te ondersteunen al in gebruik. Deze omvatten Compas, de Public Safety Assessment (PSA) en het Pre-Trial Risk Assessment Instrument (PTRA). In november 2022 publiceerde het House of Lords een rapport waarin het gebruik van AI-technologieën in het Britse strafrechtsysteem werd overwogen.

Ondersteunende algoritmen

Aan de ene kant zou het fascinerend zijn om te zien hoe AI op de lange termijn de rechtspraak aanzienlijk kan vergemakkelijken, bijvoorbeeld door de kosten van gerechtelijke diensten te verlagen of gerechtelijke procedures voor kleine vergrijpen af te handelen. AI-systemen kunnen de typische denkfouten van de menselijke psychologie vermijden en kunnen aan strenge controles worden onderworpen. Voor sommigen zouden ze zelfs onpartijdiger kunnen zijn dan menselijke rechters.

Ook kunnen algoritmen gegevens genereren om advocaten te helpen precedenten in de jurisprudentie te identificeren, manieren te bedenken om gerechtelijke procedures te stroomlijnen en rechters te ondersteunen.

Aan de andere kant zouden repetitieve geautomatiseerde beslissingen van algoritmen kunnen leiden tot een gebrek aan creativiteit bij de interpretatie van het recht, waardoor de ontwikkeling van het rechtssysteem kan worden vertraagd of stopgezet.

Geboeide man in de gevangenis.

In de VS zijn algoritmen gebruikt om het risico op recidive te berekenen, het blijven plegen van misdaden na een eerdere veroordeling.
Brian A Jackson / Shutterstock

De AI-instrumenten die zijn ontworpen om in een proces te worden gebruikt, moeten voldoen aan een aantal Europese rechtsinstrumenten, waarin normen voor de eerbiediging van de mensenrechten zijn vastgelegd. Daartoe behoren de Procedurele Europese Commissie voor de Efficiëntie van Justitie, het Europees Ethisch Handvest over het gebruik van kunstmatige intelligentie in justitiële systemen en hun omgeving (2018) en andere wetgeving die de afgelopen jaren is vastgesteld om een effectief kader te vormen voor het gebruik en de grenzen van AI in het strafrecht. We hebben echter ook efficiënte mechanismen voor toezicht nodig, zoals menselijke rechters en commissies.

Het controleren en besturen van AI is een uitdaging en omvat verschillende rechtsgebieden, zoals het gegevensbeschermingsrecht, het consumentenbeschermingsrecht en het mededingingsrecht, alsook verschillende andere gebieden zoals het arbeidsrecht. Door machines genomen beslissingen zijn bijvoorbeeld rechtstreeks onderworpen aan de GDPR, de algemene verordening gegevensbescherming, met inbegrip van de kernvereiste van eerlijkheid en verantwoordingsplicht.

Er zijn bepalingen in de GDPR om te voorkomen dat mensen uitsluitend worden onderworpen aan geautomatiseerde beslissingen, zonder menselijke tussenkomst. En er is discussie geweest over dit principe in andere rechtsgebieden.

De kwestie is al onder ons: in de VS zijn “risicobeoordelingsinstrumenten” gebruikt ter ondersteuning van beoordelingen voorafgaand aan het proces die bepalen of een verdachte op borgtocht moet worden vrijgelaten of in afwachting van het proces moet worden vastgehouden.

Een voorbeeld is het Compas-algoritme in de VS, dat werd ontworpen om het risico op recidive te berekenen – het risico om misdaden te blijven plegen, zelfs na te zijn gestraft. Er zijn echter beschuldigingen geweest – sterk ontkend door het bedrijf erachter – dat het algoritme van Compas onbedoelde raciale vooroordelen had.

In 2017 werd een man uit Wisconsin veroordeeld tot zes jaar gevangenisstraf in een vonnis dat deels gebaseerd was op zijn Compas-score. Het particuliere bedrijf dat eigenaar is van Compas beschouwt zijn algoritme als een handelsgeheim. Noch de rechtbanken, noch de verdachten mogen daarom de gebruikte wiskundige formule onderzoeken.

Naar maatschappelijke veranderingen?

Aangezien het recht als een menselijke wetenschap wordt beschouwd, is het relevant dat de AI-instrumenten rechters en rechtsbeoefenaars helpen in plaats van hen te vervangen. Net als in moderne democratieën volgt het recht de scheiding der machten. Dit is het beginsel waarbij staatsinstellingen zoals de wetgevende macht, die het recht maakt, en de rechterlijke macht, het systeem van rechtbanken die het recht toepassen, duidelijk zijn verdeeld. Dit is bedoeld om de burgerlijke vrijheden te waarborgen en tirannie tegen te gaan.

Het gebruik van AI voor rechterlijke beslissingen zou het machtsevenwicht tussen de wetgever en de rechterlijke macht kunnen verstoren door menselijke wetten en het besluitvormingsproces ter discussie te stellen. Bijgevolg zou AI kunnen leiden tot een verandering van onze waarden.

En aangezien allerlei persoonlijke gegevens kunnen worden gebruikt om menselijke handelingen te analyseren, te voorspellen en te beïnvloeden, zou het gebruik van AI een nieuwe definitie kunnen geven van wat als verkeerd en goed gedrag wordt beschouwd – misschien zonder nuances.

Het is ook gemakkelijk voor te stellen hoe AI een collectieve intelligentie zal worden. Collectieve AI is rustig opgedoken in de robotica. Drones, bijvoorbeeld, kunnen met elkaar communiceren om in formatie te vliegen. In de toekomst kunnen we ons voorstellen dat steeds meer machines met elkaar communiceren om allerlei taken uit te voeren.

De creatie van een algoritme voor de onpartijdigheid van de rechtspraak zou kunnen betekenen dat we een algoritme capabeler achten dan een menselijke rechter. Misschien zijn we zelfs bereid dit instrument het lot van ons eigen leven toe te vertrouwen. Misschien zullen we op een dag evolueren naar een samenleving die lijkt op die welke wordt beschreven in de sciencefictionromanserie The Robot Cycle van Isaac Asimov, waarin robots een soortgelijke intelligentie hebben als mensen en de controle over verschillende aspecten van de samenleving overnemen.

Een wereld waarin belangrijke beslissingen worden gedelegeerd aan nieuwe technologie boezemt veel mensen angst in, misschien omdat ze vrezen dat het zou kunnen uitwissen wat ons fundamenteel menselijk maakt. Maar tegelijkertijd is AI een krachtig potentieel instrument om ons dagelijks leven gemakkelijker te maken.

Bij menselijk redeneren vertegenwoordigt intelligentie geen staat van perfectie of onfeilbare logica. Zo spelen fouten een belangrijke rol in het menselijk gedrag. Ze stellen ons in staat te evolueren naar concrete oplossingen die ons helpen te verbeteren wat we doen. Als we het gebruik van AI in ons dagelijks leven willen uitbreiden, zou het verstandig zijn de menselijke redenering te blijven toepassen om haar te besturen.

The Conversation

Morgiane Noel werkt niet voor, geeft geen advies, heeft geen aandelen in of ontvangt geen financiering van een bedrijf of organisatie die baat zou hebben bij dit artikel, en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.