AI door de evolutie behandelen we het als een mens

AI: door de evolutie behandelen we het als een mens, en daar moeten we van af.

shutterstock

De kunstmatige intelligentie (AI) pionier Geoffrey Hinton nam onlangs ontslag bij Google en waarschuwde voor de gevaren dat de technologie “intelligenter wordt dan wij”. Zijn angst is dat AI er op een dag in zal slagen “mensen te manipuleren om te doen wat het wil”.

Er zijn redenen om bezorgd te zijn over AI. Maar we behandelen of praten vaak over AI’s alsof ze menselijk zijn. Als we daarmee ophouden en beseffen wat ze eigenlijk zijn, kunnen we een vruchtbare relatie met de technologie onderhouden.

In een recent essay adviseerde de Amerikaanse psycholoog Gary Marcus ons om AI-modellen niet langer als mensen te behandelen. Met AI-modellen bedoelt hij grote taalmodellen (LLM’s) zoals ChatGPT en Bard, die nu dagelijks door miljoenen mensen worden gebruikt.

Hij noemt flagrante voorbeelden van mensen die aan AI “te veel mensachtige cognitieve vermogens” toeschrijven, met alle gevolgen van dien. Het meest amusant was de Amerikaanse senator die beweerde dat ChatGPT “zichzelf scheikunde leerde”. Het meest schrijnend was het bericht over een Belgische jongeman die zichzelf van het leven zou hebben beroofd na langdurige gesprekken met een AI-chatbot.

Marcus heeft gelijk als hij zegt dat we AI niet langer moeten behandelen als mensen – bewuste morele agenten met belangen, hoop en verlangens. Maar velen zullen dit moeilijk tot bijna onmogelijk vinden. Dat komt omdat LLM’s zijn ontworpen – door mensen – om met ons om te gaan alsof ze menselijk zijn, en wij zijn ontworpen – door biologische evolutie – om op dezelfde manier met hen om te gaan.

Goede nabootsingen

De reden dat LLM’s menselijke gesprekken zo overtuigend kunnen nabootsen komt voort uit een
diepgaand inzicht van computerpionier Alan Turing, die zich realiseerde dat een computer een algoritme niet hoeft te begrijpen om het uit te voeren. Dit betekent dat ChatGPT weliswaar paragrafen vol emotievolle taal kan produceren, maar geen enkel woord in een gegenereerde zin begrijpt.

De LLM ontwerpers zijn erin geslaagd het probleem van de semantiek – de rangschikking van woorden om betekenis te creëren – om te zetten in statistiek, door woorden te matchen op basis van hun gebruiksfrequentie. Turing’s inzicht echoot de evolutietheorie van Darwin, die verklaart hoe soorten zich aanpassen aan hun omgeving en steeds complexer worden, zonder iets van hun omgeving of zichzelf te hoeven begrijpen.

De cognitieve wetenschapper en filosoof Daniel Dennett bedacht de uitdrukking “competentie zonder begrip”, die de inzichten van Darwin en Turing perfect weergeeft.
Een andere belangrijke bijdrage van Dennett is zijn “intentionele houding”. Deze stelt in wezen dat we, om het gedrag van een object (menselijk of niet-menselijk) volledig te kunnen verklaren, het moeten behandelen als een rationele agent. Dit uit zich meestal in onze neiging om niet-menselijke soorten en andere niet-levende entiteiten te antropomorfiseren.

Maar het is nuttig. Als we bijvoorbeeld een computer willen verslaan met schaken, is de beste strategie hem te behandelen als een rationele agent die ons “wil” verslaan. We kunnen uitleggen dat de computer bijvoorbeeld rokeerde omdat “hij zijn koning wilde beschermen tegen onze aanval”, zonder enige contradictio in terminis.

We kunnen spreken van een boom in een bos als “willen groeien” naar het licht. Maar noch de boom, noch de schaakcomputer vertegenwoordigt die “wil” of redenen voor zichzelf; alleen dat de beste manier om hun gedrag te verklaren is door ze te behandelen alsof dat wel zo is.

Intenties en agency

Onze evolutionaire geschiedenis heeft ons voorzien van mechanismen die ons voorbestemmen om overal intenties en agency te vinden. In de prehistorie hielpen deze mechanismen onze voorouders roofdieren te vermijden en altruïsme te ontwikkelen tegenover hun naaste verwanten. Het zijn dezelfde mechanismen waardoor we gezichten in wolken zien en levenloze voorwerpen antropomorfiseren. Het kan ons geen kwaad een boom voor een beer aan te zien, maar andersom wel.

De evolutionaire psychologie laat ons zien hoe we altijd proberen elk voorwerp dat menselijk zou kunnen zijn als mens te interpreteren. We nemen onbewust de opzettelijke houding aan en schrijven al onze cognitieve capaciteiten en emoties toe aan dit object.

Met de potentiële verstoring die LLM’s kunnen veroorzaken, moeten we ons realiseren dat het gewoon probabilistische machines zijn zonder intenties, of zorgen voor mensen. We moeten extra waakzaam zijn met ons taalgebruik bij het beschrijven van de mensachtige prestaties van LLM’s en AI in het algemeen. Hier zijn twee voorbeelden.

Het eerste was een recent onderzoek waaruit bleek dat ChatGPT empathischer is en “kwalitatief betere” antwoorden geeft op vragen van patiënten dan artsen. Het gebruik van emotieve woorden als “empathie” voor een AI maakt dat we hem het vermogen geven om na te denken, te reflecteren en zich oprecht om anderen te bekommeren – wat hij niet heeft.

De tweede was toen GPT-4 (de nieuwste versie van de ChatGPT-technologie) vorige maand werd gelanceerd, capaciteiten van grotere vaardigheden in creativiteit en redeneren werden toegeschreven. We zien echter gewoon een opschaling van “bekwaamheid”, maar nog steeds geen “begrip” (in de zin van Dennett) en zeker geen intenties – alleen patroonmatching.

Veilig en zeker

In zijn recente opmerkingen stelde Hinton de dreiging aan de orde van “slechte actoren” die AI gebruiken voor subversie. We kunnen ons gemakkelijk voorstellen dat een gewetenloos regime of een multinational een AI inzet, getraind op nepnieuws en onwaarheden, om het publieke debat te overspoelen met verkeerde informatie en diepe vervalsingen. Fraudeurs zouden een AI ook kunnen gebruiken om kwetsbare mensen op te lichten.

Vorige maand ondertekenden Gary Marcus en anderen, waaronder Elon Musk, een open brief waarin werd opgeroepen tot een onmiddellijke stop op de verdere ontwikkeling van LLM’s. Marcus heeft ook opgeroepen tot een internationaal agentschap om veilige, beveiligde en vreedzame AI-technologieën te bevorderen” – hij noemde het een “Cern voor AI”.

Bovendien hebben velen geopperd dat alles wat door een AI wordt gegenereerd een watermerk zou moeten dragen, zodat er geen twijfel mogelijk is over de vraag of we te maken hebben met een mens of een chatbot.

Regelgeving op het gebied van AI volgt innovatie, zoals zo vaak op andere gebieden van het leven. Er zijn meer problemen dan oplossingen, en de kloof zal waarschijnlijk groter worden voordat hij kleiner wordt. Maar in de tussentijd is het herhalen van Dennetts uitdrukking “competentie zonder begrip” misschien wel het beste tegengif voor onze aangeboren dwang om AI als mensen te behandelen.

The Conversation

Neil Saunders werkt niet voor, geeft geen advies, heeft geen aandelen in of ontvangt geen financiering van een bedrijf of organisatie die baat zou hebben bij dit artikel, en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.