Toekomst van TV: we stoppen nieuwe gepersonaliseerde functies in shows met behulp van een ethische versie van AI

Toekomst van TV we stoppen nieuwe gepersonaliseerde functies in shows

LightField Studios/Shutterstock

“Kijk nu weg als je de score niet wilt weten”, zeggen ze op het nieuws voordat ze de voetbaluitslagen melden. Maar stel je eens voor dat je televisie zou weten welke teams je volgt, welke resultaten je moet achterhouden – of dat ze voetbal helemaal links zouden laten liggen en je over iets anders zouden vertellen. Met mediapersonalisering, waar we samen met de BBC aan werken, wordt zoiets mogelijk.

Er blijven grote uitdagingen bestaan voor de aanpassing van live productie, maar er zijn andere aspecten van mediapersonalisering die dichterbij zijn. Sterker nog, mediapersonalisatie bestaat al tot op zekere hoogte. Denk maar aan de BBC iPlayer of Netflix die u inhoud voorstelt op basis van wat u eerder hebt bekeken, of Spotify dat playlists samenstelt die u misschien leuk vindt.

Maar waar we het over hebben is personalisatie binnen het programma. Dit kan inhouden dat de duur van het programma wordt aangepast (je zou een verkorte of verlengde versie kunnen krijgen), dat ondertitels of afbeeldingen worden toegevoegd, of dat de dialoog wordt verbeterd (zodat hij beter verstaanbaar is als je bijvoorbeeld in een lawaaierige omgeving bent of als je gehoor achteruit begint te gaan). Het kan ook gaan om het verstrekken van extra informatie over het programma (een beetje zoals u nu kunt doen met de rode knop van de BBC).

Het grote verschil is dat deze functies niet algemeen zouden zijn. De programma’s zouden worden herverpakt volgens je eigen smaak, en aangepast aan je behoeften, afhankelijk van waar je bent, welke apparaten je hebt aangesloten en wat je aan het doen bent.

Om op grote schaal nieuwe vormen van mediapersonalisering aan het publiek te kunnen bieden, zullen deze functies worden aangestuurd door kunstmatige intelligentie (AI). AI werkt via machinaal leren, waarbij taken worden uitgevoerd op basis van informatie uit enorme datasets die worden ingevoerd om het systeem te trainen (een algoritme).

Dit is de focus van een partnerschap tussen de BBC en het Centrum voor Visie, Spraak en Signaalverwerking van de Universiteit van Surrey. Dit samenwerkingsverband, bekend onder de naam Artificial Intelligence for Personalised Media Experiences, of AI4ME, moet de BBC helpen het publiek beter van dienst te zijn, met name het nieuwe publiek.

De moeilijkheden van AI erkennen

De AI-beginselen van de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO)
vereisen dat AI ten goede komt aan de mensheid en de planeet, met inbegrip van eerlijkheid, veiligheid, transparantie en verantwoordingsplicht.

Toch worden AI-systemen er steeds vaker van beschuldigd ongelijkheid te automatiseren als gevolg van vooroordelen in hun training, die bestaande vooroordelen kunnen versterken en kwetsbare groepen kunnen benadelen. Dit kan bijvoorbeeld de vorm aannemen van gendervooroordelen bij de aanwerving of raciale ongelijkheden bij gezichtsherkenningstechnologieën.

Een ander potentieel probleem met AI-systemen is wat wij generalisatie noemen. Het eerste erkende dodelijke ongeval door een zelfrijdende auto is hier een voorbeeld van. Nadat het systeem was getraind op beelden van wegen, waarop waarschijnlijk veel fietsers en voetgangers afzonderlijk waren vastgelegd, slaagde het er niet in om een vrouw te herkennen die haar fiets over een weg duwde.

Daarom moeten we AI-systemen blijven bijscholen naarmate we meer te weten komen over hun gedrag in de echte wereld en de door ons gewenste resultaten. Het is onmogelijk om een machine instructies te geven voor alle eventualiteiten, en onmogelijk om alle mogelijke onbedoelde gevolgen te voorspellen.

Lees meer:
Waarom AI niet alles kan oplossen

We weten nog niet precies wat voor problemen onze AI kan opleveren op het gebied van gepersonaliseerde media. Daar hopen we via ons project achter te komen. Maar het zou bijvoorbeeld iets kunnen zijn als dialoogverbetering beter werkt met mannenstemmen dan met vrouwenstemmen.

Ethische kwesties worden niet altijd een prioriteit in een technologiegerichte onderneming, tenzij overheidsvoorschriften of een mediastorm daarom vragen. Maar is het niet beter om deze problemen te voorzien en op te lossen voordat het zover komt?

Hoe eerder we AI-ingenieurs kunnen confronteren met uitdagingen, hoe eerder ze aan de slag kunnen.
Rawpixel.com/Shutterstock

De burgerraad

Om ons personaliseringssysteem goed te ontwerpen, moet de burger van meet af aan worden betrokken. Dit is van vitaal belang om een breed perspectief in te brengen in technische teams die te lijden kunnen hebben onder nauw omschreven prestatiecriteria, “groepsdenken” binnen hun afdelingen en een gebrek aan diversiteit.

Surrey en de BBC werken samen aan het testen van een aanpak om mensen – normale mensen, in plaats van experts – in te schakelen om toezicht te houden op de ontwikkeling van AI bij het personaliseren van media. We testen “burgerraden” om een dialoog te creëren, waarbij het inzicht dat we krijgen van de raden de ontwikkeling van de technologieën zal informeren. Onze burgerraad zal divers vertegenwoordigd zijn en onafhankelijk zijn van de BBC.

Eerst stellen we het thema voor een workshop samen rond een bepaalde technologie die we onderzoeken of een ontwerpprobleem, zoals het gebruik van AI om een presentator uit een video te knippen, voor vervanging in een andere video. De workshops brengen meningen naar voren en faciliteren discussie met deskundigen rond het thema, zoals een van de ingenieurs. De raad overlegt vervolgens, beraadslaagt en komt met aanbevelingen.

De thema’s bieden de burgerraad een manier om specifieke technologieën te toetsen aan elk van de AI-beginselen van de OESO en om te debatteren over het aanvaardbare gebruik van persoonsgegevens bij personalisering van de media, onafhankelijk van bedrijfs- of politieke belangen.

Er zijn risico’s. Het kan zijn dat we de diversiteit onvoldoende weerspiegelen, dat er misverstanden ontstaan over voorgestelde technologieën of dat men niet bereid is naar de standpunten van anderen te luisteren. Wat als de leden van de raad geen consensus kunnen bereiken of een vooroordeel beginnen te ontwikkelen?

Lees meer:
Zal AI ooit menselijke emoties begrijpen?

We kunnen niet meten welke rampen worden vermeden door dit proces te doorlopen, maar nieuwe inzichten die van invloed zijn op het technisch ontwerp of nieuwe problemen die het mogelijk maken eerder naar oplossingen te zoeken, zullen tekenen van succes zijn.

En één ronde van raden is niet het einde van het verhaal. Wij streven ernaar dit proces toe te passen gedurende dit vijfjarig engineering-onderzoeksproject. Wij zullen delen wat wij leren en andere projecten aanmoedigen om deze aanpak over te nemen om te zien hoe het zich vertaalt.

Wij geloven dat deze benadering brede ethische overwegingen kan inbrengen in het blikveld van engineering-ontwikkelaars tijdens de vroegste stadia van het ontwerp van complexe AI-systemen. Onze deelnemers zijn niet gebonden aan de belangen van big tech of overheden, maar dragen wel de waarden en overtuigingen van de samenleving uit.

Philip Jackson ontvangt financiering van UKRI via EPSRC en InnovateUK, waaronder projecten met BBC R&D, en van Bang & Olufsen, het Deense luxe consumentenelektronicamerk.

Mobiele versie afsluiten