ChatGPT kan niet denken – bewustzijn is iets heel anders dan de huidige AI

ChatGPT kan niet denken bewustzijn is iets heel anders

Illus_man / Shutterstock

De wereld is geschokt door de snelle vooruitgang van ChatGPT en andere kunstmatige intelligentie die is gemaakt met zogenaamde grote taalmodellen (LLM’s). Deze systemen kunnen tekst produceren die lijkt te getuigen van gedachten, begrip en zelfs creativiteit.

Maar kunnen deze systemen echt denken en begrijpen? Dit is geen vraag die kan worden beantwoord door technologische vooruitgang, maar zorgvuldige filosofische analyse en argumenten vertellen ons dat het antwoord nee is. En zonder deze filosofische vragen te beantwoorden, zullen we de gevaren en voordelen van de AI-revolutie nooit volledig begrijpen.

In 1950 publiceerde de vader van de moderne informatica, Alan Turing, een artikel waarin een manier werd beschreven om vast te stellen of een computer denkt. Dit wordt nu “de Turing test” genoemd. Turing stelde zich een mens voor die in gesprek was met twee gesprekspartners die aan het zicht waren onttrokken: de ene een ander mens, de andere een computer. Het spel is uit te vinden wie wie is.

Als een computer 70% van de juryleden in een vijf minuten durend gesprek kan laten denken dat het een mens is, dan slaagt de computer voor de test. Zou het slagen voor de Turing test – iets wat nu aanstaande lijkt – aantonen dat een AI tot denken en begrip is gekomen?

Schaakuitdaging

Turing verwierp deze vraag als hopeloos vaag, en verving hem door een pragmatische definitie van “denken”, waarbij denken gewoon betekent de test doorstaan.

Turing had echter ongelijk toen hij zei dat de enige duidelijke notie van “begrip” de zuiver gedragsmatige is van het slagen voor zijn test. Hoewel deze manier van denken nu de cognitieve wetenschap domineert, is er ook een duidelijk, alledaags begrip van “begrijpen” dat verbonden is met bewustzijn. Begrijpen in deze zin is het bewust vatten van een waarheid over de werkelijkheid.

In 1997 versloeg de Deep Blue AI schaakgrootmeester Garry Kasparov. Vanuit een puur gedragsmatige opvatting van begrijpen, had Deep Blue een kennis van schaakstrategie die ieder mens overtrof. Maar het was niet bewust: het had geen gevoelens of ervaringen.

Mensen begrijpen bewust de schaakregels en de ratio van een strategie. Deep Blue daarentegen was een niet-bewust mechanisme dat was getraind om goed te presteren in het spel. Evenzo is ChatGPT een gevoelloos mechanisme dat is getraind op enorme hoeveelheden door mensen gemaakte gegevens om inhoud te genereren die lijkt alsof hij door een mens is geschreven.

Het begrijpt niet bewust de betekenis van de woorden die het uitspuugt. Als “gedachte” betekent de daad van bewuste reflectie, dan heeft ChatGPT geen gedachten over wat dan ook.

Tijd om te betalen

Hoe kan ik er zo zeker van zijn dat ChatGPT niet bewust is? In de jaren negentig wedde neurowetenschapper Christof Koch met filosoof David Chalmers om een krat goede wijn dat wetenschappers binnen 25 jaar de “neurale correlaten van het bewustzijn” volledig zouden hebben vastgesteld.

Daarmee bedoelde hij dat ze de vormen van hersenactiviteit zouden hebben geïdentificeerd die nodig en voldoende zijn voor bewuste ervaring. Het wordt tijd dat Koch gaat betalen, want er is nul consensus dat dit is gebeurd.

Dat komt omdat bewustzijn niet kan worden waargenomen door in je hoofd te kijken. In hun pogingen om een verband te vinden tussen hersenactiviteit en ervaring, moeten neurowetenschappers vertrouwen op de getuigenis van hun proefpersonen, of op externe markers van bewustzijn. Maar er zijn meerdere manieren om de gegevens te interpreteren.

In tegenstelling tot computers, begrijpen mensen bewust de regels van schaken en de onderliggende strategie.
LightField Studios / Shutterstock

Sommige wetenschappers geloven dat er een nauw verband bestaat tussen bewustzijn en reflectieve cognitie – het vermogen van de hersenen om toegang te krijgen tot informatie en deze te gebruiken om beslissingen te nemen. Dit brengt hen ertoe te denken dat de prefrontale cortex van de hersenen – waar de processen van kennisverwerving op hoog niveau plaatsvinden – in wezen betrokken is bij alle bewuste ervaringen. Anderen ontkennen dit en stellen in plaats daarvan dat het gebeurt in het lokale hersengebied waar de relevante sensorische verwerking plaatsvindt.

Wetenschappers hebben een goed begrip van de basischemie van de hersenen. We hebben ook vooruitgang geboekt in het begrijpen van de hoge functies van verschillende delen van de hersenen. Maar we weten bijna niets over het tussenliggende deel: hoe het functioneren van de hersenen op hoog niveau op cellulair niveau wordt gerealiseerd.

Mensen zijn erg enthousiast over het potentieel van scans om de werking van de hersenen te onthullen. Maar fMRI (functional magnetic resonance imaging) heeft een zeer lage resolutie: elke pixel op een hersenscan komt overeen met 5,5 miljoen neuronen, wat betekent dat er een grens is aan hoeveel details deze scans kunnen laten zien.

Ik denk dat vooruitgang op het gebied van bewustzijn zal komen wanneer we beter begrijpen hoe de hersenen werken.

Pauze in ontwikkeling

Zoals ik betoog in mijn binnenkort te verschijnen boek “Waarom? Het doel van het universum”, moet het bewustzijn geëvolueerd zijn omdat het een verschil maakt in gedrag. Systemen met bewustzijn moeten zich anders gedragen, en dus beter overleven, dan systemen zonder bewustzijn.

Als al het gedrag bepaald werd door onderliggende chemie en fysica, dan zou natuurlijke selectie geen motivatie hebben om organismen bewust te maken; we zouden geëvolueerd zijn als gevoelloze overlevingsmechanismen.

Mijn gok is dus, dat naarmate we meer te weten komen over de gedetailleerde werking van de hersenen, we precies zullen vaststellen welke gebieden van de hersenen bewustzijn belichamen. Want die gebieden zullen gedrag vertonen dat niet verklaard kan worden door de huidige bekende chemie en fysica. Nu al zoeken sommige neurowetenschappers naar mogelijke nieuwe verklaringen voor het bewustzijn om de basisvergelijkingen van de fysica aan te vullen.

Hoewel de verwerking van LLM’s nu te complex is voor ons om volledig te begrijpen, weten we dat het in principe voorspeld kan worden vanuit de bekende fysica. Op deze basis kunnen we met vertrouwen stellen dat ChatGPT niet bewust is.

Er kleven veel gevaren aan AI, en ik sta volledig achter de recente oproep van tienduizenden mensen, onder wie technologieleiders Steve Wozniak en Elon Musk, om de ontwikkeling te pauzeren om de veiligheidsrisico’s aan te pakken. De kans op fraude is bijvoorbeeld enorm. Maar het argument dat nakomelingen van de huidige AI-systemen op korte termijn superintelligent zullen zijn, en dus een grote bedreiging voor de mensheid, is voorbarig.

Dit betekent niet dat de huidige AI-systemen niet gevaarlijk zijn. Maar we kunnen een bedreiging niet juist inschatten, tenzij we het nauwkeurig categoriseren. LLM’s zijn niet intelligent. Het zijn systemen die getraind zijn om de uiterlijke schijn van menselijke intelligentie op te wekken. Eng, maar niet zo eng.

Philip Goff werkt niet voor, geeft geen advies, heeft geen aandelen in of ontvangt geen financiering van een bedrijf of organisatie die baat heeft bij dit artikel, en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Mobiele versie afsluiten