Deepfakes worden ten goede gebruikt dit is hoe

Deepfakes worden ten goede gebruikt – dit is hoe

De Reface App op een smartphone De voorraadbeelden van Italië / Alamy Stock Photo

In het tweede seizoen van BBC mysteriethriller The Capture bedreigen deepfakes de toekomst van de democratie en de Britse nationale veiligheid. In een dystopie die zich afspeelt in het hedendaagse Londen, gebruiken hackers AI om deze zeer realistische valse beelden en video’s van mensen in te voegen in live nieuwsuitzendingen om de carrières van politici te vernietigen.

Maar het onderzoek van mijn team heeft aangetoond hoe moeilijk het is om overtuigende deepfakes in werkelijkheid te maken. Technologie en creatieve professionals zijn gaan samenwerken aan oplossingen om mensen te helpen nepvideo’s van politici en beroemdheden te herkennen. We maken een behoorlijke kans om fraudeurs een stap voor te blijven.

In mijn onderzoeksproject, Virtual Maggie, probeerde ik deepfakes te gebruiken om de voormalige Britse premier Margaret Thatcher digitaal te laten herrijzen voor een nieuw drama. Na maanden werk waren we niet in staat om een virtuele Maggie te creëren die aanvaardbaar was voor uitzending.

Het maken van overtuigende deepfakes in hoge definitie vereist hardware van topkwaliteit, veel computertijd en menselijke tussenkomst om fouten in de output te herstellen. Dit weerhield me er niet van te genieten van The Capture, ook al wist ik dat Ben Chanan’s drama geen scenario was dat zich in de nabije toekomst zou afspelen. Zoals elke goede dystopie had het de kiem van iets dat ooit mogelijk zou kunnen zijn.

Het gebruik van deepfakes sinds ze begonnen in 2017 is schokkend. De meerderheid van de deepfakes op het internet zijn aanrandingen van vrouwen, waarbij zonder toestemming gezichtsbeelden worden gepakt en in pornografische content worden geplaatst. Deepfakes-expert Henry Ajder ontdekte dat 96% van de online gevonden deepfakes pornografisch was, en 100% daarvan waren videobeelden van vrouwen.

De premisse van The Capture is gebaseerd op feiten. Deepfakes bedreigen de democratie. Bij de Britse parlementsverkiezingen van 2019 bracht kunstenaar Bill Posters een provocerende video uit van Boris Johnson die zegt dat we op Jeremy Corbyn moeten stemmen.

Posters’ deepfake was een stuk overtuigender dan de glitchy Russische deepfake waarop de Oekraïense president Volodymyr Zelenskyy zijn troepen vraagt zich over te geven. Toch maakte de Britse kunstenaar, anders dan het Kremlin, duidelijk dat zijn AI Boris onecht was door “Boris” kijkers naar een website over deepfakes te laten verwijzen. Hij wilde onze kwetsbaarheid voor vervalste politieke propaganda benadrukken.

Deepfakes zijn misschien nog niet overtuigend genoeg om mensen voor de gek te houden. Maar creatief werk gaat meestal gepaard met een ongeschreven overeenkomst tussen maker en kijkers om hun ongeloof op te schorten.

Een splitsing in de weg

De dreiging van deepfakes heeft geleid tot een intensieve zoektocht naar technische oplossingen. Een coalitie van bedrijven heeft het Content Authenticity Initiative (CAI) opgericht om te voorzien in “een manier om de waarheid in de aan ons gepresenteerde media te evalueren”.

Het is een veelbelovende aanpak. CAI-medewerkers en technologiebedrijven Truepic en Qualcomm hebben een systeem gecreëerd dat de geschiedenis van een beeld in zijn metadata integreert, zodat het kan worden geverifieerd. De Amerikaanse fotografe Sara Naomi Lewkowicz heeft een experimenteel project met CAI afgerond waarbij broninformatie in haar foto’s wordt opgenomen.

Maar creatieve en technologische professionals willen de opkomende technologie van deepfakes niet per se vertrappen. Onderzoekers van het Massachusetts Institute of Technology Media Lab hebben gebrainstormd over manieren om deepfakes goed te gebruiken. Sommige daarvan zijn in de gezondheidszorg en de behandeling.

Onderzoeksingenieurs Kate Glazko en Yiwei Zheng gebruiken deepfakes om mensen te helpen met afantasie, het onvermogen om mentale beelden in je geest te creëren. De scheidingssimulator, die momenteel wordt ontwikkeld, wil deepfakes gebruiken om “de angst voor moeilijke gesprekken te verlichten door middel van repetitie”.

De meest diepgaande positieve toepassingen van deepfakes zijn campagnes voor politieke verandering. De ouders van Joaquin Oliver, gedood bij een schietpartij op een middelbare school in Florida in 2018, gebruikten de technologie om hem terug te brengen in een krachtige video waarin werd opgeroepen tot wapenbeheersing.

Creatief worden

Er zijn ook culturele toepassingen van deepfakes. In het Dali Museum in Florida verwelkomt een deepfake Salvador Dali bezoekers en vertelt hen over zichzelf en zijn kunst. Onderzoekster Mihaela Mihailova zegt dat dit bezoekers “een gevoel van directheid, nabijheid en personalisatie” geeft. Deepfake Dali biedt je zelfs de kans om een selfie met hem te nemen.

Deepfakes en AI-gegenereerde personages kunnen educatief zijn. In Shanghai merkte geassocieerde professor Jiang Fei tijdens de lockdown dat de aandacht van zijn studenten verslapte tijdens de online lessen. Om hen te helpen zich beter te concentreren gebruikte hij een anime-versie van zichzelf om zijn lessen te leiden. Jiang Fei zei: “Het enthousiasme van de studenten in de klas en de verbetering van de kwaliteit van het huiswerk hebben duidelijk vooruitgang geboekt.”

Channel Four gebruikte zijn alternatieve kerstboodschap voor 2020 om de kijkers te vermaken met een gefingeerde koningin, terwijl het een serieus punt maakte over het niet vertrouwen van alles wat we op video zien.

Een groeiend netwerk van filmproducenten, onderzoekers en AI-technologen in het Verenigd Koninkrijk, gehost door de Universiteit van Reading en gefinancierd door het Alan Turing Institute, probeert het positieve potentieel van deepfakes in te zetten voor creatieve schermproductie. Filmmaker Benjamin Field vertelde de groep tijdens een workshop hoe hij deepfakes gebruikte om de animator die Thunderbirds creëerde voor Gerry Anderson te “herrijzen”: A Life Uncharted, een documentaire over het problematische leven van de kindertelevisieheld.

Field en zijn coproducent, Andersons jongste zoon Jamie, ontdekten oude geluidsbanden en gebruikten deepfakes om een “gefilmd” interview met de beroemde poppenspeler te construeren. Field maakt deel uit van een kleine groep creatieven die vastbesloten zijn om positieve manieren te vinden voor het gebruik van deepfakes in uitzendingen.

Deepfakes en AI-figuren maken deel uit van onze toekomst en de bovenstaande voorbeelden laten zien hoe dit op zijn minst gedeeltelijk positief kan zijn. Maar we hebben ook wetten nodig om mensen te beschermen wier beelden worden gestolen of misbruikt, en ethische richtlijnen over hoe deepfakes door filmmakers worden gebruikt. Verantwoordelijke producenten hebben al een samenwerkingsverband voor AI gevormd en een gedragscode opgesteld die kan helpen de catastrofale toekomstvisie die we in The Capture zagen, af te wenden.

The Conversation

Dominic Lees werkt niet voor, geeft geen advies, heeft geen aandelen in of ontvangt geen financiering van een bedrijf of organisatie die baat heeft bij dit artikel, en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.