Deepfakes in oorlogsvoering nieuwe zorgen over het gebruik ervan rond

Deepfakes in oorlogsvoering: nieuwe zorgen over het gebruik ervan rond de Russische invasie in Oekraïne

Bezoekers van een Oekraïense nieuwswebsite werden op de avond van 18 februari 2022 begroet door een bekend beeld, een video van hun president die een toespraak hield. Hoewel de gelijkenis er was, leek het gezicht niet helemaal te kloppen met het hoofd van de Oekraïense president.

In de video kondigde Volodymyr Zelensky aan dat de oorlog voorbij was, een feit waarvan de meerderheid van de Oekraïense bevolking wist dat het niet waar was. Het was een deepfake video. Terwijl dit online gebeurde, las de ticker onderaan het scherm op de live televisie-feed van het kanaal hetzelfde bericht. Het beweerde – opnieuw, vals – dat Oekraïne zich overgaf.

Ons team bij het Lero onderzoekscentrum in University College Cork heeft net een onderzoek gepubliceerd dat zijn weerga niet kent en dat de manieren onderzoekt waarop deepfake video’s werden gepresenteerd en besproken op Twitter tijdens de eerste maanden van de Russische invasie in Oekraïne.

Deepfake technologie is een recente technologische ontwikkeling die mensen in staat stelt om video’s te maken van gebeurtenissen die nooit hebben plaatsgevonden. Het lijkt bijzonder geschikt voor het verspreiden van desinformatie, verkeerde informatie en “nepnieuws” op sociale mediaplatforms en elders online. Deepfakes zijn ook zeer geschikt om te worden gebruikt in cyberoorlogsvoering.

De video’s worden gemanipuleerd met behulp van AI-technologie en bevatten meestal een mix van echte en nep-inhoud. Hierdoor lijken ze realistischer en overtuigender dan video’s die volledig met AI zijn gegenereerd. De deepfake technologie kan bijvoorbeeld een echte video nemen en de gezichten van twee mensen in die video verwisselen of de lipbewegingen veranderen zodat een persoon iets anders lijkt te zeggen dan wat hij oorspronkelijk zei.

Commentatoren en academici hebben erop gewezen dat nepvideo’s veel gemakkelijker en sneller kunnen worden gemaakt met deepfake technologie dan met eerdere methoden.

In 2022 dook er een deepfake video op van president Zelensky, waarin hij de Oekraïners valselijk vertelde dat het leger zich had overgegeven.

Verlies van vertrouwen

Onze studie vond veel gevallen waarin de aanwezigheid van deepfakes twijfel of verwarring veroorzaakte. Opvallend genoeg toonden onze gegevens gevallen aan waarin mensen echte video’s ervan beschuldigden nep te zijn. We vonden ook bewijs dat mensen hun vertrouwen in alle video’s van het conflict verloren, waarbij sommige mensen theorieën onderschreven dat wereldleiders dood waren en waren vervangen door deepfakes.

Van de vele voorbeelden van deepfakes die online werden gebruikt tijdens de Russisch-Oekraïense oorlog, was het voorbeeld van Zelensky die beweerde dat de oorlog voorbij was misschien wel het meest beangstigend. Dit omdat het duidelijk maakte hoe deepfakes, samen met gehackte mediadiensten, gebruikt konden worden om berichten te verspreiden die tegen de feiten ingingen. Het nettoresultaat van dit incident was dat valse informatie werd verspreid vanuit een betrouwbare bron. Soortgelijke deepfake video’s van de overgave van de Russische president Vladimir Poetin doken ook op tijdens de oorlog.

Ons onderzoek is het eerste academische onderzoek naar het effect van deepfakes in de oorlog. Om te ontdekken hoe deepfakes werden gebruikt in de eerste dagen van de Russische invasie in Oekraïne, hebben we eerst een tijdlijn gemaakt van de verschillende deepfakes die vroeg in de invasie werden verspreid. Hoewel we niet elke deepfake die opdook konden vastleggen, hebben we geprobeerd de meest opvallende voorbeelden te vinden en die met de meeste impact. Vervolgens analyseerden we hoe deze video’s werden besproken op Twitter (nu X genoemd).

AI heeft het makkelijker en sneller gemaakt om deepfake video’s te maken.
REDPIXEL.PL / Shutterstock

Humor, verwarring en scepsis

Veel van de deepfakes die tijdens het conflict werden gemaakt, waren humoristisch van aard. In sommige gevallen werd Poetin in films als Downfall (Der Untergang) of Charlie Chaplins film The Great Dictator uit 1940 ingevoegd. Er werden ook deepfake (en CGI) video’s gemaakt door de Oekraïense regering om mensen te informeren over het conflict.

Het is interessant dat het demonstreren van het vermogen van Oekraïne om valse video’s te maken, ook al waren ze educatief, misschien wel averechts werkte. Ze creëerden wantrouwen en argwaan bij kijkers ten opzichte van echte media.

Veel van de discussie over deepfakes online ging over gezond scepticisme, zoals advies voor fact checking en het detecteren van deepfakes. We vonden echter ook talloze voorbeelden van video’s waarvan mensen ten onrechte beweerden dat het deepfakes waren. Er waren twee categorieën van dergelijke video’s. Ten eerste bleken veel video’s low-tech vervalsingen te zijn, zoals video’s met valse ondertiteling of video’s van gebeurtenissen uit andere oorlogen die werden gepresenteerd als bewijs voor gebeurtenissen in Oekraïne.

Ten tweede vonden we veel gevallen van echte video’s van gebeurtenissen in Oekraïne, die door commentatoren ten onrechte werden beschuldigd van deepfaked. Het verlies van vertrouwen in de echte media is een ernstig gevolg van deepfakes, en wakkert alleen maar het ontstaan van op deepfakes gerichte samenzweringstheorieën aan.

Lessen trekken

Welke lessen kan de gemiddelde gebruiker van sociale media uit dit onderzoek trekken? De prevalentie van deepfake video’s online is de afgelopen vijf jaar toegenomen en de technologische detectie van deepfake video’s is op dit moment niet nauwkeurig genoeg om een oplossing op zich te zijn. Het belangrijkste is om goede mediageletterdheid bij individuen aan te moedigen in het balanceren tussen gezonde en ongezonde scepsis.

Het is nodig om zeer opruiende media met scepsis te bekijken en te wachten tot dergelijke nieuwsberichten door meerdere betrouwbare bronnen zijn geverifieerd. Aan de andere kant van de medaille moeten mensen oppassen dat ze video’s niet onterecht beschuldigen van deepfake.

Het is belangrijk om niet het vertrouwen te verliezen in elk stukje media dat we tegenkomen, vooral omdat deepfakes online niet bijzonder veel voorkomen. Eén ding is zeker, de kwestie van deepfake desinformatie zal in ieders gedachten zijn als wereldwijde conflicten zich dit decennium en daarna ontwikkelen.

Het Gesprek

John Joseph Twomey ontvangt financiering van LERO/SFI Ireland.

Conor Linehan ontvangt fondsen van Science Foundation Ireland, de Irish Research Council en Google. Hij is verbonden aan Lero, het Ierse centrum voor softwareonderzoek.

Gillian Murphy ontvangt financiële steun van Science Foundation Ireland, de Irish Research Council en Google. Ze is verbonden aan Lero, het Ierse centrum voor softwareonderzoek.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.