Om de problemen van AI te begrijpen kijk naar de

Om de problemen van AI te begrijpen, kijk naar de kortere wegen die zijn genomen om het te creëren

shutterstock

Een machine kan alleen “doen wat wij haar kunnen opdragen”, schreef de 19e-eeuwse computerpionier Ada Lovelace. Deze geruststellende uitspraak werd gedaan naar aanleiding van Charles Babbage’s beschrijving van de eerste mechanische computer.

Lady Lovelace kon niet weten dat in 2016 een programma genaamd AlphaGo, ontworpen om het bordspel “Go” te spelen en te verbeteren, niet alleen al zijn makers zou kunnen verslaan, maar dat ook zou doen op manieren die zij niet konden verklaren.

In 2023 tilt de AI-chatbot ChatGPT dit naar een ander niveau: hij voert gesprekken in meerdere talen, lost raadsels op en slaagt zelfs voor juridische en medische examens. Onze machines zijn nu in staat om dingen te doen waarvan wij, hun makers, niet weten “hoe ze die moeten laten doen”.

Dit heeft zowel opwinding als bezorgdheid veroorzaakt over de mogelijkheden van deze technologie. Onze bezorgdheid komt voort uit het feit dat we niet weten wat we van deze nieuwe machines kunnen verwachten, zowel wat betreft hun onmiddellijke gedrag als hun toekomstige evolutie.

We kunnen ze enigszins begrijpen, en ook de risico’s, als we bedenken dat al hun successen, en de meeste van hun problemen, rechtstreeks voortkomen uit het specifieke recept dat we volgen om ze te maken.

De reden waarom machines nu in staat zijn dingen te doen die wij, hun makers, niet volledig begrijpen, is dat ze in staat zijn geworden te leren van ervaring. AlphaGo werd zo goed door meer potjes Go te spelen dan een mens in zijn leven zou kunnen doen. Evenzo zou geen mens zoveel boeken kunnen lezen als ChatGPT heeft geabsorbeerd.

Angst verminderen

Het is belangrijk te begrijpen dat machines intelligent zijn geworden zonder op een menselijke manier te denken. Dit besef alleen al kan verwarring, en dus angst, sterk verminderen.

Intelligentie is niet uitsluitend een menselijk vermogen, zoals elke bioloog je zal vertellen, en ons specifieke merk ervan is noch het hoogtepunt, noch de bestemming ervan. Voor sommigen is het misschien moeilijk te aanvaarden, maar intelligentie heeft meer te maken met kippen die veilig de weg oversteken dan met het schrijven van gedichten.

Met andere woorden, we moeten niet noodzakelijkerwijs verwachten dat machine-intelligentie evolueert naar een vorm van bewustzijn. Intelligentie is het vermogen om in onbekende situaties het juiste te doen, en dit kan worden gevonden in machines, bijvoorbeeld die welke een gebruiker een nieuw boek aanbevelen.

Als we willen begrijpen hoe we met AI moeten omgaan, kunnen we teruggaan naar een crisis die de industrie trof vanaf eind jaren tachtig, toen veel onderzoekers nog probeerden na te bootsen wat we dachten dat mensen deden. Ze probeerden bijvoorbeeld de regels van taal of menselijk redeneren te begrijpen, om ze in machines te programmeren.

Dat werkte niet, dus namen ze uiteindelijk wat sluipwegen. Dit zou wel eens een van de meest ingrijpende beslissingen in onze geschiedenis kunnen blijken te zijn.

Fork in the road

De eerste kortere weg was te vertrouwen op het nemen van beslissingen op basis van statistische patronen die in gegevens werden gevonden. Hierdoor hoefden we de complexe fenomenen die we de machines wilden laten nabootsen, zoals taal, niet meer te begrijpen. De auto-complete functie in je messaging app kan het volgende woord raden zonder je doelen te begrijpen.

Hoewel anderen al eerder soortgelijke ideeën hadden, was de eerste die deze methode echt liet werken, en beklijven, waarschijnlijk Fredrick Jelinek bij IBM, die “statistische taalmodellen” uitvond, de voorouders van alle GPT’s, terwijl hij werkte aan machinevertaling.

Begin jaren negentig vatte hij die eerste snelkoppeling samen door te zeggen: “Telkens als ik een linguïst ontsla, gaan de prestaties van onze systemen omhoog. Hoewel deze opmerking misschien schertsend was bedoeld, weerspiegelde ze een echte verschuiving in de focus van AI weg van pogingen om de regels van taal na te bootsen.

Deze aanpak verspreidde zich snel naar andere domeinen en introduceerde een nieuw probleem: het vinden van de gegevens die nodig zijn om statistische algoritmen te trainen.

De gegevens specifiek voor trainingstaken creëren zou duur zijn geweest. Een tweede kortere weg werd noodzakelijk: gegevens konden in plaats daarvan van het web worden geplukt.

Voor het kennen van de intentie van gebruikers, zoals in systemen voor het aanbevelen van inhoud, werd een derde snelkoppeling gevonden: het gedrag van gebruikers voortdurend observeren en daaruit afleiden waarop zij zouden kunnen klikken.

Aan het eind van dit proces werd AI getransformeerd en werd een nieuw recept geboren. Tegenwoordig is deze methode te vinden in alle online vertaal-, aanbevelings- en vraagbeantwoordingstools.

Brandstof om te werken

Ondanks het succes creëert dit recept ook problemen. Hoe kunnen we er zeker van zijn dat belangrijke beslissingen eerlijk worden genomen, als we het binnenwerk van de machine niet kunnen inspecteren?

Hoe kunnen we voorkomen dat machines onze persoonlijke gegevens verzamelen, wanneer dit de brandstof is die hen doet functioneren? Hoe kunnen we verwachten dat een machine voorkomt dat schadelijke inhoud gebruikers bereikt, wanneer het ontworpen is om te leren wat mensen doet klikken?

Het helpt niet dat we dit alles hebben ingezet op een zeer invloedrijke positie in het centrum van onze digitale infrastructuur, en veel belangrijke beslissingen hebben gedelegeerd aan AI.

Zo dicteren algoritmes, in plaats van menselijke beslissers, wat we in realtime te zien krijgen op sociale media. In 2022 gaf de lijkschouwer die uitspraak deed over de tragische dood van de 14-jarige Molly Russell een algoritme deels de schuld van het ongevraagd tonen van schadelijk materiaal aan het kind.

Aangezien deze zorgen voortkomen uit dezelfde sluipwegen die de technologie mogelijk hebben gemaakt, zal het een uitdaging zijn om goede oplossingen te vinden. Dit is ook de reden waarom de eerste besluiten van de Italiaanse privacy-autoriteit om ChatGPT te blokkeren voor onrust zorgden.

Aanvankelijk stelde de autoriteit de problemen aan de orde dat persoonsgegevens zonder rechtsgrondslag van het web werden gehaald en dat de door de chatbot verstrekte informatie fouten bevatte. Dit had een ernstig probleem kunnen vormen voor de hele aanpak, en het feit dat het werd opgelost door juridische disclaimers toe te voegen of de algemene voorwaarden te wijzigen, zou een voorproefje kunnen zijn van toekomstige regelgevingsstrijd.

We hebben goede wetten nodig, geen doemdenken. Het paradigma van AI is lang geleden verschoven, maar het werd niet gevolgd door een overeenkomstige verschuiving in onze wetgeving en cultuur. Die tijd is nu gekomen.

Er is een belangrijk gesprek op gang gekomen over wat we van AI zouden moeten willen, en dit zal de betrokkenheid van verschillende soorten geleerden vereisen. Hopelijk wordt het gebaseerd op de technische realiteit van wat we hebben gebouwd, en waarom, in plaats van op sciencefictionfantasieën of doemscenario’s.

The Conversation

Auteur van "The Shortcut: Waarom intelligente machines niet denken zoals wij", uitgegeven door CRC Press, 2023

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.