Deepfakes bedreigen de komende verkiezingen maar verantwoordelijke AI kan helpen

Deepfakes bedreigen de komende verkiezingen, maar ‘verantwoordelijke AI’ kan helpen ze eruit te filteren voordat ze ons bereiken

Duizenden democratische kiezers kregen telefoontjes van wat klonk als Joe Biden. Het was een deepfake. Jonah Elkowitz / Shutterstock

Eerder dit jaar kregen duizenden Democratische kiezers in New Hampshire een telefoontje voorafgaand aan de voorverkiezing, waarin ze werden opgeroepen thuis te blijven in plaats van te gaan stemmen.

Het telefoontje kwam zogenaamd van niemand minder dan president Joe Biden. Maar het bericht was een “deepfake”. Deze term heeft betrekking op video’s, foto’s of audio die met kunstmatige intelligentie (AI) zijn gemaakt om echt te lijken, terwijl ze dat niet zijn. De valse oproep van Biden is een van de meest in het oog springende voorbeelden tot nu toe van de kritieke bedreiging die deepfakes kunnen vormen voor het democratische proces tijdens de huidige Britse verkiezingen en de komende Amerikaanse verkiezingen.

Deepfake advertenties die zich voordoen als premier Rishi Sunak hebben naar verluidt meer dan 400.000 mensen bereikt op Facebook, terwijl jonge kiezers in belangrijke strijdtonelen nepvideo’s worden aanbevolen die zijn gemaakt door politieke activisten.

Maar er kan hulp komen van technologie die voldoet aan een aantal principes die bekend staan als “verantwoordelijke AI”. Deze technologie zou vervalsingen kunnen detecteren en uitfilteren op ongeveer dezelfde manier als een spamfilter dat doet.

Verkeerde informatie is al lang een probleem tijdens verkiezingscampagnes, waarbij veel media nu “fact checking” uitvoeren op de beweringen van rivaliserende kandidaten. Maar de snelle ontwikkelingen van AI – en in het bijzonder generatieve AI – betekenen dat de grens tussen waar en onwaar, feit en fictie steeds vager wordt.

Dit kan verwoestende gevolgen hebben, wantrouwen zaaien in het politieke proces en de verkiezingsuitslag beïnvloeden. Als hier niets aan gedaan wordt, kunnen we een vrij en eerlijk democratisch proces wel vergeten. In plaats daarvan zullen we te maken krijgen met een nieuw tijdperk van verkiezingen die beïnvloed worden door AI.

Zaden van wantrouwen

Een van de redenen voor de ongebreidelde verspreiding van deze deepfakes is het feit dat ze goedkoop en eenvoudig te maken zijn, waarbij letterlijk geen voorkennis van kunstmatige intelligentie nodig is. Het enige wat je nodig hebt is de wil om de uitkomst van een verkiezing te beïnvloeden.

Betaalde reclame kan worden gebruikt om deepfakes en andere bronnen van desinformatie te verspreiden. De Online Safety Act kan het verplicht maken om illegale desinformatie te verwijderen zodra het is geïdentificeerd (ongeacht of het AI-gegenereerd is of niet).

Maar tegen de tijd dat dat gebeurt, is het zaad van wantrouwen al gezaaid in de hoofden van kiezers, waardoor de informatie die ze gebruiken om meningen te vormen en beslissingen te nemen, wordt gecorrumpeerd.

Rishi Sunak

Deepfakes van Rishi Sunak bereikten duizenden mensen online.
photocosmos1 / Shutterstock

Het verwijderen van deepfakes zodra ze al door duizenden kiezers zijn gezien, is als het plakken van een pleister op een gapende wond – te weinig, te laat. Het doel van elke technologie of wet gericht op het aanpakken van deepfakes zou moeten zijn om de schade helemaal te voorkomen.

Met dit in gedachten heeft de VS een AI taskforce opgezet om dieper in te gaan op manieren om AI en deepfakes te reguleren. Ondertussen is India van plan om straffen in te voeren voor zowel degenen die deepfakes en andere vormen van desinformatie creëren, als voor platforms die deze verspreiden.

Daarnaast zijn er regels opgelegd door techbedrijven zoals Google en Meta, die politici verplichten om het gebruik van AI in verkiezingsadvertenties openbaar te maken.
Tot slot zijn er technologische oplossingen voor de dreiging van deepfakes. Zeven grote techbedrijven – waaronder OpenAI, Amazon en Google – zullen “watermerken” opnemen in hun AI-inhoud om deepfakes te identificeren.

Er zijn echter verschillende voorbehouden. Er is geen standaard watermerk, waardoor elk bedrijf zijn eigen watermerktechnologie kan ontwerpen en het moeilijker wordt om deepfakes op te sporen. Het gebruik van watermerken is alleen een vrijwillige verplichting voor techbedrijven en het niet naleven ervan wordt niet bestraft. Er zijn ook slimme en eenvoudige manieren om het watermerk te verwijderen. Neem het geval van DALL-E, waar een snelle zoekopdracht het proces voor het verwijderen van het watermerk onthult.

Bovendien zijn platforms tegenwoordig niet het enige middel voor online communicatie. Iedereen die verkeerde informatie wil verspreiden, kan gemakkelijk deepfakes rechtstreeks naar kiezers e-mailen of minder beperkende platforms gebruiken, zoals versleutelde messaging apps, als een geprefereerde uitlaatklep voor verspreiding.

Hoe kunnen we, gezien deze beperkingen, onze democratieën beschermen tegen de dreiging van AI deepfakes? Het antwoord is om technologie te gebruiken om een probleem te bestrijden dat door technologie is gecreëerd, door deze in te zetten om de overdrachtscyclus van desinformatie via internet, e-mails en online chatplatforms te doorbreken.

Eén manier om dit te doen is het ontwerpen en ontwikkelen van nieuwe “verantwoordelijke AI”-mechanismen die deepfake audio en video kunnen detecteren op het punt van ontstaan. Net als een spamfilter zou het deze uit sociale media en inboxen verwijderen.

Zo’n 20 toonaangevende technologiebedrijven, waaronder Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok en X, hebben toegezegd samen te werken om schadelijke AI-inhoud te detecteren en tegen te gaan. Deze gezamenlijke inspanning om het misleidende gebruik van AI in de verkiezingen van 2024 tegen te gaan staat bekend als het Tech Accord.

Maar dit zijn eerste stappen. Voor de toekomst hebben we verantwoorde AI-oplossingen nodig, die verder gaan dan alleen het identificeren en elimineren van deepfakes en het vinden van methoden om hun oorsprong te traceren en te zorgen voor transparantie en vertrouwen in het nieuws dat gebruikers lezen.

Het ontwikkelen van deze oplossingen is een race tegen de klok, nu het Verenigd Koninkrijk en de VS zich al voorbereiden op verkiezingen. Alles moet in het werk worden gesteld om op tijd voor de Amerikaanse presidentsverkiezingen later dit jaar effectieve tegenmaatregelen te ontwikkelen en in te zetten tegen politieke deepfakes.

Gezien de snelheid waarmee AI zich ontwikkelt en de spanningen die de campagne waarschijnlijk zullen omringen, is het moeilijk voor te stellen dat we in staat zullen zijn om echt eerlijke en onpartijdige verkiezingen te houden zonder deepfakes.

Zolang er geen effectieve regelgeving en verantwoorde AI-technologie is om de integriteit van informatie te handhaven, gaat het oude adagium “zien is geloven” niet langer op. Dat maakt de huidige algemene verkiezingen in het Verenigd Koninkrijk kwetsbaar voor beïnvloeding door AI deepfakes.

Kiezers moeten extra voorzichtig zijn bij het bekijken van advertenties, tekst, spraak, audio of video met een politieke connectie om te voorkomen dat ze worden gedupeerd door deepfakes die onze democratie proberen te ondermijnen.

Het Gesprek

Shweta Singh werkt niet voor, heeft geen adviesfuncties, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat zouden hebben bij dit artikel en heeft geen relevante banden bekendgemaakt buiten haar academische aanstelling.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.