AI: de echte bedreiging is misschien wel de manier waarop overheden het gebruiken

AI de echte bedreiging is misschien wel de manier waarop

Deemerwha studio / Shutterstock

De aanzienlijke risico’s van AI voor de wereldwijde veiligheid worden steeds duidelijker. Dat is deels de reden waarom de Britse premier Rishi Sunak andere wereldleiders ontvangt op de AI Safety Summit op 1 en 2 november in de beroemde codebrekerslocatie Bletchley Park uit de Tweede Wereldoorlog. Maar terwijl de technologie van AI zich in een alarmerend tempo ontwikkelt, kan de echte dreiging wel eens van regeringen zelf komen.

De staat van dienst van de ontwikkeling van AI in de afgelopen 20 jaar levert een reeks bewijzen van misbruik van de technologie door regeringen over de hele wereld. Dit omvat buitensporige surveillancepraktijken, het gebruik van AI voor de verspreiding van desinformatie.

Hoewel de focus de laatste tijd ligt op particuliere bedrijven die AI-producten ontwikkelen, zijn overheden niet de onpartijdige scheidsrechters die ze op deze AI-top lijken te zijn. In plaats daarvan hebben ze een rol gespeeld die net zo belangrijk is voor de precieze manier waarop AI zich heeft ontwikkeld – en dat zullen ze blijven doen.

Militarisering van AI

Er zijn voortdurend berichten dat de leidende technologische naties een AI-wapenwedloop beginnen. Geen enkele staat is deze race echt begonnen. De ontwikkeling ervan is complex geweest en veel groepen – van binnen en buiten regeringen – hebben een rol gespeeld.

Tijdens de koude oorlog raakten de Amerikaanse inlichtingendiensten geïnteresseerd in het gebruik van kunstmatige intelligentie voor surveillance, nucleaire verdediging en voor de geautomatiseerde ondervraging van spionnen. Het is dan ook niet verwonderlijk dat de integratie van AI in militaire capaciteiten in andere landen, zoals het Verenigd Koninkrijk, de afgelopen jaren snel is doorgegaan.

Geautomatiseerde technologieën die zijn ontwikkeld voor gebruik in de oorlog tegen terreur hebben geleid tot de ontwikkeling van krachtige, op AI gebaseerde militaire capaciteiten, waaronder AI-gestuurde drones (onbemande luchtvaartuigen) die worden ingezet in de huidige conflictgebieden.

De president van Rusland, Vladimir Poetin, heeft verklaard dat het land dat voorop loopt in AI-technologie de wereld zal regeren. China heeft ook verklaard een AI-grootmacht te willen worden.

Surveillerende staten

Een ander belangrijk punt van zorg is het gebruik van AI door overheden om hun eigen samenleving te bewaken. Omdat regeringen binnenlandse bedreigingen voor de veiligheid hebben zien ontstaan, onder andere door terrorisme, hebben ze AI steeds meer ingezet om de veiligheid van de staat te vergroten.

In China is dit extreem ver doorgevoerd, met het gebruik van gezichtsherkenningstechnologieën, algoritmen voor sociale media en internetcensuur om bevolkingen te controleren en in de gaten te houden, waaronder in Xinjiang waar AI een integraal onderdeel vormt van de onderdrukking van de Oeigoerse bevolking.

Maar de staat van dienst van het westen is ook niet geweldig. In 2013 werd onthuld dat de Amerikaanse overheid autonome tools had ontwikkeld om enorme hoeveelheden gegevens over het internetgebruik van mensen te verzamelen en te doorzoeken, zogenaamd voor terrorismebestrijding. Er werd ook gemeld dat de Britse overheid toegang had tot deze tools. Naarmate AI zich verder ontwikkelt, is het gebruik ervan voor surveillance door overheden een grote bron van zorg voor voorvechters van privacy.

Ondertussen worden grenzen bewaakt door algoritmen en gezichtsherkenningstechnologieën, die steeds vaker worden ingezet door binnenlandse politiediensten. Er is ook een bredere bezorgdheid over “predictive policing”, het gebruik van algoritmen om hotspots van criminaliteit te voorspellen (vaak in gemeenschappen van etnische minderheden) die dan extra politie-inspanningen krijgen.

Deze recente en huidige trends suggereren dat overheden misschien niet in staat zijn om de verleiding te weerstaan om steeds geavanceerdere AI te gebruiken op manieren die zorgen rond surveillance oproepen.

AI besturen?

Ondanks de goede bedoelingen van de Britse regering om een veiligheidstop te beleggen en wereldleider te worden op het gebied van veilig en verantwoord gebruik van AI, zal de technologie serieuze en aanhoudende inspanningen op internationaal niveau vereisen om enige vorm van regulering effectief te laten zijn.

Governance-mechanismen beginnen vorm te krijgen, waarbij de VS en de EU onlangs belangrijke nieuwe regelgeving voor AI hebben geïntroduceerd.

Maar het besturen van AI op internationaal niveau is vol moeilijkheden. Er zullen natuurlijk staten zijn die AI-regulering ondertekenen en deze vervolgens in de praktijk negeren.

Westerse regeringen worden ook geconfronteerd met argumenten dat een te strenge regulering van AI autoritaire staten in staat zal stellen hun aspiraties om het voortouw te nemen op het gebied van de technologie waar te maken. Maar als we bedrijven toestaan om nieuwe producten “overhaast” uit te brengen, lopen we het risico dat we systemen ontketenen die enorme onvoorziene gevolgen voor de maatschappij kunnen hebben. Kijk maar naar hoe geavanceerde tekst-genererende AI zoals ChatGPT misinformatie en propaganda zou kunnen vergroten.

En zelfs de ontwikkelaars zelf begrijpen niet precies hoe geavanceerde algoritmes werken. Het doorprikken van deze “zwarte doos” van AI-technologie vereist geavanceerde en langdurige investeringen in test- en verificatiecapaciteit door nationale autoriteiten. Maar de mogelijkheden of de autoriteiten bestaan op dit moment niet.

De politiek van angst

We zijn gewend om in het nieuws te horen over een superintelligente vorm van AI die de menselijke beschaving bedreigt. Maar er zijn redenen om op onze hoede te zijn voor een dergelijke denkwijze.

Zoals uit mijn eigen onderzoek blijkt, kan de “securitisering” van AI – dat wil zeggen, het presenteren van technologie als een existentiële bedreiging – door regeringen worden gebruikt als excuus om macht te grijpen, om er zelf misbruik van te maken, of om een bekrompen eigenbelang benadering van AI te kiezen die niet de potentiële voordelen benut die het voor alle mensen zou kunnen opleveren.

De AI-top van Rishi Sunak zou een goede gelegenheid zijn om te benadrukken dat regeringen de politiek van angst buiten de pogingen om AI onder controle te krijgen moeten houden.

Joe Burton werkt niet voor, voert geen advies uit over, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat hebben bij dit artikel en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Mobiele versie afsluiten