Waarom robots cultureel ongevoelig kunnen zijn – en hoe wetenschappers dit proberen op te lossen

Waarom robots cultureel ongevoelig kunnen zijn en hoe wetenschappers

Een robot praat met een oudere Britse man in zijn slaapkamer. De robot heeft een vrolijke uitstraling en een aangenaam hoog stemmetje.

De robot – misschien vanwege de leeftijd van de man – begint hem te vragen naar zijn herinneringen aan de Tweede Wereldoorlog: “Vertel me alstublieft wat het moeilijkste was dat u en uw familie moesten meemaken?” De oudere man vertelt verder over hoe zijn vader in de Royal Air Force zat en dat ze hem bijna vier jaar niet hebben gezien.

Maar waarom vroeg een robot hem botweg over wat misschien wel een van de meest traumatische ervaringen was die hij ooit heeft gehad? Het gedrag van de robot was het product van het Caresses-project (Culture-Aware Robots and Environmental Sensor Systems for Elderly Support).

Dit project past in het nieuwe veld van de “culturele robotica”, dat robots wil ontwerpen die rekening kunnen houden met de culturele achtergrond van de persoon met wie ze praten, en hun gedrag daarop kunnen afstemmen. Daarom praat de robot over de oorlog. De man was Brits, dus hij werd verondersteld geïnteresseerd te zijn.

In de toekomst kunnen we verwachten dat robots steeds vaker worden ingezet in ons persoonlijke en sociale leven. Er wordt momenteel actief onderzoek gedaan naar uiteenlopende gebieden als bezorgrobots voor supermarkten, entertainmentrobots, dienstrobots voor de gezondheidszorg, haalrobots voor magazijnen, robots voor dementieondersteuning, robots voor mensen in het autismespectrum en zorgrobots voor ouderen.

Er zijn zelfs robotpriesters die zegeningen kunnen uitspreken in vijf talen, en robotmonniken die mensen kunnen onderwijzen over het boeddhisme.

Culturele stereotypen

Culturele robotica maakt deel uit van een bredere beweging om AI en robotica meer cultureel inclusief te maken.

Er zijn al eerder zorgen geuit over deze beweging. Zo worden grote taalmodellen (LLM’s) zoals die van OpenAI’s ChatGPT getraind op enorme hoeveelheden tekst. Maar omdat het internet nog steeds overwegend Engels is, worden LLM’s voornamelijk getraind op Engelse tekst – met de culturele aannames en vooroordelen die daarin…

Op een vergelijkbare manier is het goed bedoeld om robots en AI cultuurgevoeliger te maken, maar we maken ons zorgen over waar dit toe kan leiden.

Een onderzoek vergeleek bijvoorbeeld de culturele voorkeuren van China, Duitsland en Korea om conclusies te trekken over hoe mensen in deze landen willen dat hun robots eruit zien.

Door gebruik te maken van eerder werk over culturele voorkeuren, suggereerden ze dat meer “mannelijke” samenlevingen de neiging hebben om “grote en snelle” dingen mooi te vinden, terwijl meer “vrouwelijke” samenlevingen “kleine en langzame” dingen mooi vinden. Ze verwezen naar werk dat beweert aan te tonen dat de Koreaanse cultuur “middenmannelijk” is, terwijl de Duitse cultuur “hoogmannelijk” is, en veronderstelden dat Koreaanse mensen eerder geneigd zijn om dienstrobots (die meestal klein of middelgroot en langzaam zijn) mooi te vinden.

Een ander onderzoek vergeleek de persoonlijke ruimtevoorkeuren van Duitsers en “Arabieren”. Maar deze dingen zijn niet vergelijkbaar. “Arabier” is voor veel mensen een mogelijk beledigende term en kan worden gebruikt om mensen met veel verschillende culturele en nationale achtergronden te beschrijven. Het is zeker niet vergelijkbaar met categorieën als “Duitser”, wat een niet-aanstootgevende term is voor mensen met één nationaliteit.

Het wordt ook steeds duidelijker dat mensen verschillend reageren op robots, afhankelijk van hun eigen culturele achtergrond. Verschillende culturen hebben bijvoorbeeld verschillende verwachtingen rond persoonlijke ruimte, en dit beïnvloedt hoe ver ze liever hebben dat robots van hen af staan.

Verschillende culturen interpreteren gezichtsuitdrukkingen ook anders. Uit een onderzoek bleek dat mensen een robot beter begrijpen als deze communiceert met gezichtsuitdrukkingen waar ze bekend mee zijn.

Een andere manier?

Als we willen voorkomen dat we robots ontwerpen op basis van brede en grove generalisaties en stereotypen, dan hebben we een meer genuanceerde benadering van cultuur in robotica nodig.

Cultuur is een notoir vaag en genuanceerd concept, dat voor vele interpretaties vatbaar is. In een onderzoek worden meer dan 300 mogelijke definities van cultuur genoemd.

In ons recente onderzoek stelden we dat cultuur “conceptueel gefragmenteerd” is. Kortom, onze visie is dat er zoveel verschillende manieren zijn om cultuur te begrijpen, en zoveel verschillende soorten robots, dat we niet moeten verwachten dat er een uniforme benadering bestaat.

Wij denken dat verschillende toepassingen binnen de robotica radicaal verschillende benaderingen van cultuur zullen vereisen. Stel je bijvoorbeeld een entertainmentrobot voor in een theater die de taak heeft om voor het publiek te dansen.

Voor deze taak zou de beste manier om cultuur te benaderen kunnen inhouden dat je je concentreert op het soort entertainment waar de mensen in de omgeving de voorkeur aan geven. Dit zou kunnen inhouden dat je je afvraagt welke dansstijlen plaatselijk gangbaar zijn en het ontwerp van de robot daarop afstemt.

Andere toepassingen kunnen een andere benadering van cultuur vereisen. Bijvoorbeeld, voor een robot waarvan verwacht wordt dat hij gedurende langere tijd met hetzelfde kleine aantal mensen zal interageren (zoals een dienstrobot in een verzorgingstehuis) is het misschien belangrijker dat de robot zijn gedrag in de loop van de tijd verandert, om zich aan te passen aan de veranderende voorkeuren van de mensen die hij helpt.

In dit geval is het misschien beter om cultuur te zien als iets dat langzaam en dynamisch ontstaat door de interactie tussen verschillende subjecten.

Dit betekent dat het benaderen van cultuur in robotica waarschijnlijk complex, veelzijdig en specifiek voor elke situatie zal zijn.

Als we robots ontwerpen op basis van relatief grove stereotypen en generalisaties over verschillende culturen, dan lopen we het risico dat we die stereotypen verspreiden.

De auteurs werken niet voor, adviseren niet, bezitten geen aandelen in en ontvangen geen financiering van bedrijven of organisaties die baat zouden hebben bij dit artikel en hebben geen relevante banden bekendgemaakt buiten hun academische aanstelling.

Mobiele versie afsluiten