Bletchley-verklaring: internationale overeenkomst over AI-veiligheid is een goed begin, maar gewone mensen moeten meepraten – niet alleen elites

Bletchley verklaring internationale overeenkomst over AI veiligheid is een goed begin maar

In november organiseerde de Britse regering de eerste top over de veiligheid van AI (kunstmatige intelligentie) in de historisch resonerende omgeving van Bletchley Park, de thuisbasis van de legendarische codebrekers uit de Tweede Wereldoorlog onder leiding van het computergenie Alan Turing.

Afgevaardigden van 27 regeringen, hoofden van de toonaangevende AI-bedrijven en andere geïnteresseerden woonden de bijeenkomst bij. De bijeenkomst was belegd om de uitdagingen en kansen van deze transformerende en snel ontwikkelende technologie te bespreken. Maar wat heeft de bijeenkomst opgeleverd?

Beslissingen over de ontwikkeling van AI zijn voor het overgrote deel in handen van de private sector, vooral van het kleine aantal grote techbedrijven met toegang tot enorme hoeveelheden digitale gegevens en immense rekenkracht. Deze zijn nodig om technologische vooruitgang te stimuleren.

Deze technologie heeft een groot potentieel om gebieden als onderwijs, gezondheidszorg, toegang tot justitie, wetenschappelijke ontdekkingen en milieubescherming te verbeteren. Om dit op een verantwoorde manier te doen, is het van vitaal belang dat democratische regeringen een grotere rol spelen in het vormgeven van de toekomst van AI.

Omdat veel uitdagingen die voortkomen uit AI-regulering niet op puur binnenlands niveau kunnen worden aangepakt, is internationale samenwerking dringend nodig om wereldwijde basisnormen op te stellen die de ergste gevolgen van een AI-“wapenwedloop” tussen landen beperken. Dit zou een belemmering kunnen vormen voor inspanningen om verantwoorde technologische ontwikkeling te stimuleren.

Belangrijkste risico’s

De top was zeer welkom, maar de aankondiging dat het thema “AI-veiligheid” centraal zou staan, wekte de bezorgdheid dat de top gedomineerd zou worden door de agenda van een luidruchtige groep wetenschappers, ondernemers en beleidsmakers. Zij hebben het “existentiële risico” dat deze technologieën met zich meebrengen centraal gesteld in de discussie over AI-regulering (het opstellen van regels). Het existentiële risico waar ze naar verwijzen is het idee dat geavanceerde AI het uitsterven van de mensheid zou kunnen veroorzaken.

We sluiten de mogelijkheid van AI die amok maakt niet uit. We hadden echter twee grote problemen met de framing van het evenement als een “veiligheids”-top.

Rishi Sunak interviewde Elon Musk tijdens de top.

Ten eerste krijgt de existentiële dreiging van AI overdreven betekenis ten opzichte van andere existentiële risico’s, zoals klimaatverandering of een kernoorlog. Het krijgt ook overdreven aandacht in vergelijking met andere door AI gecreëerde risico’s, zoals discriminatie van mensen door algoritmen, werkloosheid omdat AI banen vervangt, de schadelijke gevolgen voor het milieu van de enorme datacenters die nodig zijn om rekenkracht te ondersteunen en de ondermijning van de democratie door de verspreiding van desinformatie en desinformatie.

Ten tweede dreigde het overkoepelende thema “veiligheid” AI-regulering voor te stellen als een reeks technische problemen die opgelost moeten worden door experts in de technologie-industrie en de overheid. Dit legt misschien niet de nadruk op de brede democratische afweging die nodig is, waarbij iedereen die met deze technologieën te maken krijgt, betrokken wordt.

Geschikt kader

Uiteindelijk waren deze zorgen enigszins misplaatst. De “Bletchley verklaring” over AI die op de top werd onthuld, omvat niet alleen het vermijden van rampen of bedreigingen van lijf en leden, maar ook prioriteiten zoals het veiligstellen van mensenrechten en de Duurzame Ontwikkelingsdoelen van de VN. Met andere woorden, een top over “veiligheid” betrof uiteindelijk zo’n beetje alle kwesties waarop AI van invloed zou kunnen zijn.

De verklaring werd ondertekend door alle 27 deelnemende landen, waaronder het VK, de VS, China, India en de Europese Unie.

Hopelijk komt dit neer op een feitelijke erkenning dat het “existentiële risico” kader te beperkend was. Achteraf gezien bood het praten over “veiligheid” een politiek neutrale vlag waaronder verschillende facties uit de industrie, de overheid en de burgermaatschappij konden samenkomen.

Maar een belangrijke vraag is hoe de waarden die in de verklaring worden genoemd, moeten worden geïnterpreteerd en geprioriteerd. Met betrekking tot deze AI-gerelateerde waarden zegt het document dat “de bescherming van mensenrechten, transparantie en uitlegbaarheid, eerlijkheid, verantwoordingsplicht, regulering, veiligheid, passend menselijk toezicht, ethiek, beperking van vooroordelen, privacy en gegevensbescherming moeten worden aangepakt”.

Dit is een zeer ongestructureerde lijst van zorgen. Maakt privacy geen deel uit van mensenrechten? Ethiek omvat zeker ook eerlijkheid. Menselijk toezicht kan misschien het best omschreven worden als een proces in plaats van een waarde, in tegenstelling tot andere items op de lijst.

Symbolische waarde?

Als zodanig kan de waarde van de verklaring grotendeels symbolisch zijn voor het besef van politieke leiders dat AI serieuze uitdagingen en kansen biedt en hun bereidheid om samen te werken aan passende maatregelen. Maar er moet nog veel gebeuren om de waarden van de verklaring om te zetten in effectieve regelgeving.

Het vertaalproces vereist geïnformeerde en brede democratische participatie. Het kan geen top-down proces zijn dat gedomineerd wordt door technocratische elites. Historisch gezien weten we dat het uitoefenen van democratische controle de beste manier is om ervoor te zorgen dat technologische vooruitgang het algemeen belang dient in plaats van de macht van gevestigde elites verder te vergroten.

Aan de positievere kant werd tijdens de top een nieuw Brits AI-veiligheidsinstituut aangekondigd dat veiligheidsevaluaties gaat uitvoeren van grensverleggende AI-systemen. Ook werd de oprichting van een orgaan aangekondigd, voorgezeten door de vooraanstaande AI-wetenschapper Yoshua Bengio, om te rapporteren over de risico’s en mogelijkheden van dergelijke systemen.

De overeenkomst van de bedrijven die in het bezit zijn van dergelijke systemen om ze beschikbaar te stellen voor onderzoek is bijzonder welkom. Maar het grootste succes van de top was misschien wel dat China bij de discussie werd betrokken, ondanks de voorspelbare protesten van de haviken. Een belangrijke uitdaging voor democratische staten is de vraag hoe ze kunnen samenwerken met landen die de wereldwijde normen voor AI willen onderschrijven, maar die zelf geen democratieën zijn.

Een andere belangrijke uitdaging voor regeringen is het stimuleren van de aandacht van het publiek voor deze kwesties en tegelijkertijd gebruik te maken van technische expertise. Tot deze expertise moeten vooraanstaande onderzoekers behoren die in dienst zijn van big tech. Maar deze experts moeten niet de waarden dicteren die AI-technologie moet dienen of bepalen welke waarden prioriteit moeten krijgen.

In dit opzicht kan het bijna een uur durende interview van de premier met de prominente deelnemer aan de top, Elon Musk, het gevoel hebben versterkt dat de techsector oververtegenwoordigd was ten opzichte van de burgermaatschappij.

De top belichtte twee fundamentele vragen, waarvan de antwoorden doorslaggevend zullen zijn bij het vormgeven van de toekomst van AI. De eerste vraag is in hoeverre staten in staat zullen zijn om de ontwikkeling van AI te reguleren. De tweede vraag is: hoe kan er in dit proces sprake zijn van echte openbare beraadslaging en verantwoordingsplicht?

John Tasioulas ontvangt financiering van het Schmidt Futures AI2050 Program; en in het verleden van de AHRC, British Academy, Future of Life Institute; Wellcome Foundation. Isabelle Ferreras en Caroline Green hebben ook bijgedragen aan dit artikel.

Hélène Landemore ontvangt financiering van het Schmidt Futures AI2050 Programma.

Sir Nigel Shadbolt ontvangt financiering van het Alan Turing Institute en het Oxford Martin School project on Ethical Web and Data Architectures.

Mobiele versie afsluiten