Taylor Swift deepfakes: een rechtszaak van de zangeres kan andere slachtoffers van AI-porno helpen

Taylor Swift deepfakes een rechtszaak van de zangeres kan andere

Tussen haar record verbrijzelende Eras tour en het aanmoedigen van haar NFL-ster vriendje Travis Kelce door, maakt Taylor Swift zich mogelijk op voor een historische juridische strijd over AI pornografie. Naar verluidt bereidt Swift zich voor om actie te ondernemen tegen distributeurs van “deepfake” beelden van haar.

Obscene afbeeldingen van Swift begonnen op 25 januari te circuleren op X (voorheen Twitter). De afbeeldingen, die door fans als “walgelijk” worden omschreven, zijn naar verluidt afkomstig van een Telegram-groep die zich bezighoudt met het genereren van kunstmatige pornografische inhoud van vrouwen. Ze waren ongeveer 17 uur live en meer dan 45 miljoen keer bekeken voordat ze werden verwijderd. X blokkeerde tijdelijk zoekopdrachten naar Swifts naam in een poging andere gebruikers ervan te weerhouden de afbeeldingen te delen.

In reactie hierop heeft een groep Amerikaanse senatoren een wetsvoorstel ingediend om de verspreiding van door AI gegenereerde, niet-consensuele seksuele beelden strafbaar te stellen.

Er is momenteel geen federale wet in de VS tegen deepfake inhoud. Dergelijke wetgeving is wel besproken, maar voornamelijk als reactie op het gebruik van generatieve AI in politieke desinformatie.

Maar totdat er een wet is aangenomen, zijn de verhaalsmogelijkheden van Swift beperkt. Ze zou het bedrijf dat verantwoordelijk is voor de technologie kunnen aanklagen, of mogelijk een civiele procedure aanspannen tegen de makers of distributeurs van de afbeeldingen. Microsoft, wiens software naar verluidt werd gebruikt om de afbeeldingen te maken, heeft al beperkingen opgelegd om te voorkomen dat soortgelijke afbeeldingen worden gegenereerd.

De impact van seksueel misbruik op basis van afbeeldingen

De zaak van Swift is spraakmakend vanwege haar status als beroemdheid, maar AI-gegenereerde pornografie en deepfakes zijn een snel groeiend probleem nu de technologie steeds toegankelijker wordt. Het duurt nu slechts 25 minuten en kost niets om kunstmatige pornografie te maken.

Bijna alle deepfake inhoud is pornografisch van aard en toont bijna altijd vrouwen. Hoewel beroemdheden vaak het doelwit zijn, is de realiteit dat iedereen met jouw afbeelding gemakkelijk pornografische afbeeldingen kan maken met jouw gelijkenis.

Hoewel de afbeeldingen misschien nep zijn, is de schadelijke impact van deze ervaring zeer reëel. Onderzoeken naar het zonder toestemming delen van pornografische of intieme beelden hebben de gevoelens van schending en schaamte gedocumenteerd die slachtoffers voelen. Angst, depressie en PTSS zijn veel voorkomende gevolgen van deze ervaring.

Omdat slachtoffers zichzelf vaak de schuld geven of de schuld van anderen ervaren, kan het moeilijk zijn om verder te gaan. Bovendien betekent de digitale aard van het delen van seksuele beelden dat slachtoffers voortdurend bang moeten zijn dat hun foto steeds opnieuw wordt gedeeld.

Acteur Jennifer Lawrence en televisiepersoonlijkheid Georgia Harrison, beide beroemde slachtoffers van seksueel misbruik op basis van beelden, hebben besproken hoe hun status als beroemdheid de omvang en reikwijdte van hun eigen ervaringen heeft vergroot.

Deepfake porno en andere vormen van digitaal seksueel misbruik worden soms afgedaan als een “mindere” schade dan fysiek seksueel misbruik vanwege hun online aard. Een prominente zaak als die van Swift kan de aandacht vestigen op de werkelijke impact van deze beelden op slachtoffers.

Het feit dat het niet “echt” haar lichaam is, doet niets af aan de ernst ervan. Onderzoek toont aan dat de “pornificatie” van niet-riskante foto’s met behulp van photoshop of AI net zo schadelijk kan zijn voor de afgebeelde persoon. De intentie achter deze beelden is niet alleen seksueel – de vernedering van het slachtoffer is een even gewenst resultaat.

Wat zegt de wet in het Verenigd Koninkrijk?

Via de Online Safety Act stelt de Britse wet nu het verspreiden (maar niet het maken) van digitaal gemaakte of veranderde intieme beelden strafbaar.

Hoewel de verandering door actievoerders is toegejuicht, zijn er nog steeds barrières die slachtoffers ervan weerhouden hun recht te halen.

Net als bij seksueel geweld in het algemeen, worden incidenten van het delen van seksuele beelden zonder toestemming vaak niet gemeld. Als ze wel worden gemeld, kan een slechte reactie van de politie de schade verergeren.

Het aantal vervolgingen is laag, vaak door gebrek aan bewijs of doordat slachtoffers hun steun intrekken. Een gebrek aan begeleiding door agenten, geen garantie op anonimiteit of angst voor repercussies van de dader zijn slechts enkele van de factoren die ertoe kunnen leiden dat iemand besluit een zaak niet door te zetten.

Een staat van dienst in het bestrijden van seksisme

Dit zou niet de eerste keer zijn dat Swift juridische stappen onderneemt tegen vrouwenhaat. In 2017 won ze haar claim tegen een voormalige radio DJ die haar betastte tijdens een meet-and-greet. Ze eiste slechts US€1 (79p) aan schadevergoeding en verklaarde dat ze de zaak wilde gebruiken om een standpunt in te nemen tegen seksueel geweld.

Hoewel Swifts beroemdheidsstatus haar tot een doelwit heeft gemaakt, brengt haar roem voordelen met zich mee die veel slachtoffers van seksueel geweld niet hebben, zoals ze opmerkte in de nasleep van haar rechtszaak in 2017. Haar platform, rijkdom en invloed gaven haar de middelen om zich uit te spreken waar anderen dat niet kunnen.

Het “Taylor Swift effect” heeft bewezen een krachtige economische kracht te zijn. Als ze ervoor kiest om actie te ondernemen tegen de makers van de beelden, zou dat een mijlpaal kunnen zijn in de strijd tegen kunstmatige pornografie. Een groter publiek bewustzijn kan slachtoffers aanmoedigen en druk uitoefenen op bestuursorganen over de hele wereld om de wet beter te handhaven.

Als je slachtoffer bent geworden van kunstmatige pornografie of andere vormen van seksueel misbruik op basis van beelden, dan kun je op een aantal plaatsen hulp vinden. De Revenge Porn Helpline en de Cyber Helpline kunnen hulp bieden bij het verwijderen van deze afbeeldingen, het doen van aangifte bij de politie en het zoeken naar aanvullende ondersteuning.

Jade Gilbourne's proefschrift wordt gefinancierd door de ESRC via het White Rose Doctoral Training Partnership.

Mobiele versie afsluiten