AI-oplichtingsgesprekken die bekende stemmen imiteren zijn een groeiend probleem – zo werken ze

AI oplichtingsgesprekken die bekende stemmen imiteren zijn een groeiend probleem

Antonio Guillem/Shutterstock

Zwendelpogingen waarbij AI stemmen nabootst van mensen die je misschien kent, worden gebruikt om nietsvermoedende burgers uit te buiten. Deze oproepen maken gebruik van zogenaamde generatieve AI, wat verwijst naar systemen die tekst, afbeeldingen of andere media zoals video kunnen creëren op basis van aanwijzingen van een gebruiker.

Deepfakes hebben de afgelopen jaren bekendheid gekregen door een aantal geruchtmakende incidenten, zoals de gelijkenis van actrice Emma Watson die werd gebruikt in een reeks suggestieve advertenties die op Facebook en Instagram verschenen.

Er was ook de veel gedeelde – en ontkrachte – video uit 2022 waarin de Oekraïense president Volodymyr Zelensky de Oekraïners leek te vertellen dat ze “de wapens neer moesten leggen”.

Nu wordt de technologie om een audio deepfake te maken, een realistische kopie van iemands stem, steeds gebruikelijker. Om een realistische kopie van iemands stem te maken heb je data nodig om het algoritme te trainen. Dit betekent dat je veel audio-opnames moet hebben van de stem van je beoogde doelwit. Hoe meer voorbeelden van de stem van de persoon je kunt invoeren in de algoritmes, hoe beter en overtuigender de uiteindelijke kopie zal zijn.

Velen van ons delen al details van ons dagelijks leven op het internet. Dit betekent dat de audiogegevens die nodig zijn om een realistische kopie van een stem te maken gemakkelijk beschikbaar zouden kunnen zijn op sociale media. Maar wat gebeurt er als een kopie eenmaal beschikbaar is? Wat is het ergste dat er kan gebeuren? Een deepfake algoritme kan iedereen die in het bezit is van de gegevens in staat stellen om “jou” te laten zeggen wat ze maar willen. In de praktijk kan dit zo simpel zijn als wat tekst schrijven en de computer het hardop laten zeggen met wat klinkt als jouw stem.

Grote uitdagingen

Deze mogelijkheid dreigt de prevalentie van audio-misinformatie en desinformatie te vergroten. Het kan gebruikt worden om te proberen de internationale of nationale publieke opinie te beïnvloeden, zoals te zien was bij de “video’s” van Zelensky.

Maar de alomtegenwoordigheid en beschikbaarheid van deze technologieën zorgt ook op lokaal niveau voor aanzienlijke uitdagingen – vooral in de groeiende trend van “AI scam calls”. Veel mensen zullen wel eens een zwendel- of phishingoproep hebben ontvangen die ons bijvoorbeeld vertelt dat onze computer is gecompromitteerd en dat we onmiddellijk moeten inloggen, waardoor de beller mogelijk toegang krijgt tot onze gegevens.

Echte stemmen versus nepstemmen kunnen worden onderscheiden aan de hand van hun spectrogram, of voiceprint.
Brastock/Shutterstock

Het is vaak heel gemakkelijk om te zien dat het om een hoax gaat, vooral als de beller verzoeken doet die iemand van een legitieme organisatie niet zou doen. Maar stel je nu eens voor dat de stem aan de andere kant van de telefoon niet zomaar een vreemde is, maar precies klinkt als een vriend of geliefde. Dit zorgt voor een heel nieuw niveau van complexiteit en paniek voor de ongelukkige ontvanger.

Een recent verhaal van CNN belicht een incident waarbij een moeder een telefoontje kreeg van een onbekend nummer. Toen ze de telefoon opnam, was het haar dochter. De dochter zou ontvoerd zijn en belde haar moeder om losgeld te vragen.

In werkelijkheid was het meisje gezond en wel. De oplichters hadden een vervalsing van haar stem gemaakt. Dit is geen op zichzelf staand incident, met variaties van de zwendel waaronder een zogenaamd auto-ongeluk, waarbij het slachtoffer hun familie belt voor geld om hen te helpen na een ongeluk.

Oude truc met nieuwe technologie

Dit is op zich geen nieuwe zwendel, de term “virtuele ontvoeringszwendel” bestaat al enkele jaren. Het kan vele vormen aannemen, maar een veel voorkomende aanpak is om slachtoffers te verleiden tot het betalen van losgeld om een geliefde te bevrijden waarvan ze denken dat die wordt bedreigd.

De oplichter probeert onvoorwaardelijke gehoorzaamheid te bewerkstelligen, zodat het slachtoffer snel losgeld betaalt voordat het bedrog wordt ontdekt. De opkomst van krachtige en beschikbare AI-technologieën heeft de lat echter aanzienlijk hoger gelegd – en de dingen persoonlijker gemaakt. Het is één ding om op te hangen bij een anonieme beller, maar je moet echt vertrouwen hebben in je beoordelingsvermogen om op te hangen bij een telefoontje van iemand die net zo klinkt als je kind of partner.

Er bestaat software waarmee je deepfakes kunt identificeren en die een visuele weergave van de audio maakt, een spectrogram. Als je naar het gesprek luistert lijkt het misschien onmogelijk om het van de echte persoon te onderscheiden, maar stemmen kunnen worden onderscheiden als spectrogrammen naast elkaar worden geanalyseerd. Ten minste één groep heeft detectiesoftware aangeboden om te downloaden, hoewel dergelijke oplossingen nog steeds enige technische kennis vereisen om te gebruiken.

De meeste mensen zullen niet in staat zijn om spectrogrammen te genereren, dus wat kun je doen als je niet zeker weet of wat je hoort echt is? Zoals met elke andere vorm van media die je tegenkomt: wees sceptisch.

Als je uit het niets een telefoontje krijgt van een geliefde en ze vragen je om geld of doen verzoeken die vreemd lijken, bel ze dan terug of stuur ze een sms om te bevestigen dat je echt met ze praat.

Naarmate de mogelijkheden van AI toenemen, zullen de grenzen tussen werkelijkheid en fictie steeds meer vervagen. En het is niet waarschijnlijk dat we de technologie weer terug in de doos kunnen stoppen. Dit betekent dat mensen voorzichtiger moeten worden.

Oliver Buckley werkt niet voor, heeft geen adviesfuncties, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat hebben bij dit artikel en heeft geen relevante banden buiten zijn academische aanstelling bekendgemaakt.

Mobiele versie afsluiten