Waarom het ontwikkelen van een kunstmatige intelligentie die goed is

Waarom het ontwikkelen van een kunstmatige intelligentie die goed is in wiskunde zo belangrijk is voor OpenAI

Daboost / Shutterstock

Met het recente ontslag en de snelle re-integratie van Sam Altman door OpenAI staan debatten over de ontwikkeling en het gebruik van kunstmatige intelligentie (AI) weer volop in de belangstelling. Wat nog ongebruikelijker is, is dat een prominent thema in de berichtgeving in de media het vermogen van AI-systemen is om wiskunde te doen.

Blijkbaar had een deel van het drama bij OpenAI te maken met de ontwikkeling door het bedrijf van een nieuw AI-algoritme met de naam Q*. Over het systeem werd gesproken als een belangrijke vooruitgang en een van de opvallende kenmerken was de mogelijkheid om wiskundig te redeneren.

Maar is wiskunde niet de basis van AI? Hoe kan een AI-systeem problemen hebben met wiskundig redeneren, gezien het feit dat computers en rekenmachines wiskundige taken kunnen uitvoeren?

AI is niet één enkele entiteit. Het is een lappendeken van strategieën om berekeningen uit te voeren zonder directe instructies van mensen. Zoals we zullen zien, zijn sommige AI-systemen bekwaam in wiskunde.

Een van de belangrijkste huidige technologieën, de grote taalmodellen (LLM’s) achter AI-chatbots zoals ChatGPT, heeft tot nu toe echter moeite gehad om wiskundig redeneren na te bootsen. Dit komt omdat ze zijn ontworpen om zich te concentreren op taal.

Als het nieuwe Q*-algoritme van het bedrijf ongeziene wiskundige problemen kan oplossen, dan zou dat wel eens een belangrijke doorbraak kunnen zijn. Wiskunde is een oude vorm van menselijk redeneren die grote taalmodellen (LLM’s) tot nu toe maar moeilijk hebben kunnen evenaren. LLM’s zijn de technologie die ten grondslag ligt aan systemen zoals OpenAI’s ChatGPT.

Op het moment van schrijven zijn de details van het Q*-algoritme en de mogelijkheden ervan beperkt, maar zeer intrigerend. Er zijn dus verschillende subtiliteiten waar rekening mee moet worden gehouden voordat Q* een succes wordt genoemd.

Wiskunde is bijvoorbeeld een onderwerp waar iedereen in meer of mindere mate mee bezig is, en het niveau van wiskunde dat Q* beheerst blijft onduidelijk. Er is echter academisch werk gepubliceerd dat alternatieve vormen van AI gebruikt om wiskunde op onderzoeksniveau te verbeteren (waaronder werk van mijzelf en een werk van een team wiskundigen in samenwerking met onderzoekers van Google DeepMind).

Deze AI-systemen kunnen worden omschreven als bekwaam in wiskunde. Het is echter waarschijnlijk dat Q* niet wordt gebruikt om academici te helpen in hun werk, maar eerder bedoeld is voor een ander doel.

Maar zelfs als Q* niet in staat is om de grenzen van geavanceerd onderzoek te verleggen, is het zeer waarschijnlijk dat de manier waarop het is gebouwd een betekenis heeft die prikkelende mogelijkheden biedt voor toekomstige ontwikkeling.

Steeds comfortabeler

Als samenleving voelen we ons steeds meer op ons gemak met gespecialiseerde AI die wordt gebruikt om vooraf bepaalde soorten problemen op te lossen. Zo zullen digitale assistenten, gezichtsherkenning en online aanbevelingssystemen bij de meeste mensen wel bekend zijn. Wat nog ongrijpbaar is, is een zogenaamde “kunstmatige algemene intelligentie” (AGI) die een breed redeneervermogen heeft dat vergelijkbaar is met dat van een mens.

Wiskunde is een basisvaardigheid die we elk schoolkind willen aanleren, en zou zeker in aanmerking komen als een fundamentele mijlpaal in de zoektocht naar AGI. Dus hoe anders zouden wiskundig competente AI-systemen de maatschappij kunnen helpen?

Sam Altman

Q* kwam aan het licht na het ontslag van OpenAI CEO Sam Altman door het bestuur van het bedrijf.
Jamesonwu1972 / Shutterstock

De wiskundige denkwijze is relevant voor een groot aantal toepassingen, bijvoorbeeld coderen en engineering, en dus is wiskundig redeneren een essentiële overdraagbare vaardigheid voor zowel menselijke als kunstmatige intelligentie. Ironisch genoeg is AI op een fundamenteel niveau gebaseerd op wiskunde.

Veel van de technieken die door AI-algoritmen worden toegepast, komen uiteindelijk neer op een wiskundig gebied dat matrixalgebra wordt genoemd. Een matrix is eenvoudigweg een raster van getallen, waarvan een digitale afbeelding een bekend voorbeeld is. Elke pixel is niets meer dan numerieke data.

Grote taalmodellen zijn ook inherent wiskundig. Op basis van een enorme hoeveelheid tekst kan een machine de waarschijnlijkheid leren van de woorden die het meest waarschijnlijk volgen op een prompt (of vraag) van de gebruiker aan de chatbot. Als je wilt dat een voorgetrainde LLM zich specialiseert in een bepaald onderwerp, dan kan deze worden verfijnd op wiskundige literatuur of elk ander leerdomein. Een LLM kan tekst genereren die leest alsof hij wiskunde begrijpt.

Helaas levert dit een LLM op die goed is in bluffen, maar slecht in details. Het probleem is dat een wiskundige uitspraak per definitie een ondubbelzinnige Booleaanse waarde heeft (waar of onwaar). Wiskundig redeneren komt neer op het logisch afleiden van nieuwe wiskundige beweringen uit eerder opgestelde beweringen.

Advocaat van de duivel

Natuurlijk zal elke benadering van wiskundig redeneren die vertrouwt op linguïstische waarschijnlijkheden buiten zijn boekje gaan. Een manier om dit te omzeilen zou kunnen zijn om een systeem van formele verificatie in de architectuur op te nemen (precies hoe de LLM is gebouwd), die continu de logica controleert achter de sprongen die het grote taalmodel maakt.

Een aanwijzing dat dit is gedaan zou kunnen zitten in de naam Q*, die mogelijk verwijst naar een algoritme dat helemaal in de jaren 70 is ontwikkeld om te helpen bij deductief redeneren. Een andere mogelijkheid is dat Q* verwijst naar Q-learning, waarbij een model in de loop van de tijd kan verbeteren door conclusies die correct zijn te testen en te belonen.

Maar er zijn verschillende uitdagingen om wiskundig bekwame AI’s te bouwen. Sommige van de meest interessante wiskunde bestaat bijvoorbeeld uit zeer onwaarschijnlijke gebeurtenissen. Er zijn veel situaties waarin men denkt dat er een patroon bestaat op basis van kleine getallen, maar het onverwacht niet werkt als men genoeg gevallen controleert. Dit vermogen is moeilijk in een machine in te bouwen.

Een andere uitdaging komt misschien als een verrassing: wiskundig onderzoek kan zeer creatief zijn. Dat moet ook wel, want beoefenaars moeten nieuwe concepten bedenken en toch binnen de formele regels van een eeuwenoud vak blijven.

Een AI-methodologie die alleen getraind is om patronen te vinden in reeds bestaande wiskunde zou waarschijnlijk nooit echt nieuwe wiskunde kunnen creëren. Gezien de pijplijn tussen wiskunde en technologie lijkt dit de conceptie van nieuwe technologische revoluties uit te sluiten.

Maar laten we even advocaat van de duivel spelen en ons voorstellen dat AI inderdaad nieuwe wiskunde zou kunnen creëren. Het vorige argument hiertegen heeft een tekortkoming, in die zin dat ook gezegd zou kunnen worden dat de beste menselijke wiskundigen ook uitsluitend getraind zijn op reeds bestaande wiskunde. Grote taalmodellen hebben ons eerder verrast en zullen dat weer doen.

De conversatie

Tom Oliver werkt niet voor, heeft geen adviesfuncties, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat hebben bij dit artikel en heeft geen relevante banden buiten zijn academische aanstelling bekendgemaakt.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.