AI kan de schuld zijn van ons falen om contact te maken met buitenaardse beschavingen

AI kan de schuld zijn van ons falen om contact

sdecoret/Shutterstock

Kunstmatige intelligentie (AI) heeft de afgelopen jaren een verbazingwekkende ontwikkeling doorgemaakt. Sommige wetenschappers kijken nu naar de ontwikkeling van kunstmatige superintelligentie (ASI) – een vorm van AI die niet alleen de menselijke intelligentie zou overtreffen, maar ook niet gebonden zou zijn aan de leersnelheden van mensen.

Maar wat als deze mijlpaal niet alleen een opmerkelijke prestatie is? Wat als het ook een formidabel knelpunt vormt in de ontwikkeling van alle beschavingen, een knelpunt dat zo uitdagend is dat het hun overleving op lange termijn in de weg staat?

Dit idee vormt de kern van een onderzoekspaper dat ik onlangs heb gepubliceerd in Acta Astronautica. Zou AI de “grote filter” van het universum kunnen zijn – een drempel die zo moeilijk te overwinnen is dat hij voorkomt dat het meeste leven zich ontwikkelt tot ruimtevarende beschavingen?

Dit is een concept dat zou kunnen verklaren waarom de zoektocht naar buitenaardse intelligentie (Seti) nog niet de handtekeningen van geavanceerde technische beschavingen elders in het melkwegstelsel heeft ontdekt.

De grote filterhypothese is uiteindelijk een voorgestelde oplossing voor de Fermi-paradox. Deze stelt de vraag waarom we in een heelal dat groot en oud genoeg is om miljarden potentieel bewoonbare planeten te herbergen, nog geen tekenen van buitenaardse beschavingen hebben ontdekt. De hypothese suggereert dat er onoverkomelijke hindernissen zijn in de evolutionaire tijdlijn van beschavingen die hen verhinderen zich te ontwikkelen tot ruimtevarende entiteiten.

Ik geloof dat de opkomst van ASI zo’n filter zou kunnen zijn. De snelle vooruitgang van AI, die mogelijk leidt tot ASI, kan samenvallen met een kritieke fase in de ontwikkeling van een beschaving – de overgang van een soort op één planeet naar een soort op meerdere planeten.

Dit is waar veel beschavingen zouden kunnen wankelen, met AI die veel sneller vooruitgang boekt dan ons vermogen om het te beheersen of duurzaam ons zonnestelsel te verkennen en bevolken.

De uitdaging met AI, en specifiek ASI, ligt in zijn autonome, zichzelf versterkende en verbeterende aard. Het bezit het potentieel om zijn eigen mogelijkheden te verbeteren met een snelheid die onze eigen evolutionaire tijdlijnen zonder AI overtreft.

Het potentieel om iets verkeerd te laten gaan is enorm, wat kan leiden tot de ondergang van zowel biologische als AI-beschavingen voordat ze ooit de kans krijgen om multiplanetair te worden. Als naties bijvoorbeeld steeds meer vertrouwen op en macht afstaan aan autonome AI-systemen die met elkaar concurreren, zouden militaire capaciteiten gebruikt kunnen worden om op ongekende schaal te doden en te vernietigen. Dit zou kunnen leiden tot de vernietiging van onze hele beschaving, inclusief de AI-systemen zelf.

In dit scenario schat ik de typische levensduur van een technologische beschaving op minder dan 100 jaar. Dat is ruwweg de tijd tussen het kunnen ontvangen en uitzenden van signalen tussen de sterren (1960) en de geschatte opkomst van ASI (2040) op Aarde. Dit is alarmerend kort als je het afzet tegen de kosmische tijdschaal van miljarden jaren.

Er is een verbijsterend aantal planeten.
Nasa/James Webb telescoop

Als we deze schatting in optimistische versies van de Drake-vergelijking stoppen – die een schatting probeert te maken van het aantal actieve, communicatieve buitenaardse beschavingen in de Melkweg – suggereert dit dat er op een gegeven moment slechts een handvol intelligente beschavingen zijn. Bovendien zouden ze, net als wij, door hun relatief bescheiden technologische activiteiten behoorlijk moeilijk te detecteren kunnen zijn.

Wekdienst

Dit onderzoek is niet slechts een waarschuwend verhaal over potentiële onheilstijding. Het dient als een wake-up call voor de mensheid om robuuste regelgevende kaders op te stellen om de ontwikkeling van AI te sturen, inclusief militaire systemen.

Het gaat niet alleen om het voorkomen van kwaadwillig gebruik van AI op aarde; het gaat er ook om ervoor te zorgen dat de evolutie van AI in lijn is met het overleven van onze soort op de lange termijn. Het suggereert dat we meer middelen moeten inzetten om zo snel mogelijk een multiplanetaire samenleving te worden – een doel dat slapende is gebleven sinds de onstuimige dagen van het Apollo-project, maar dat de laatste tijd weer is aangewakkerd door de vooruitgang die is geboekt door particuliere bedrijven.

Zoals de historicus Yuval Noah Harari opmerkte, heeft niets in de geschiedenis ons voorbereid op de impact van de introductie van onbewuste, superintelligente entiteiten op onze planeet. Onlangs hebben de implicaties van autonome AI-besluitvorming geleid tot oproepen van prominente leiders in het veld voor een moratorium op de ontwikkeling van AI, totdat er een verantwoorde vorm van controle en regulering kan worden ingevoerd.

Maar zelfs als elk land zou instemmen met strikte regels en regulering, zullen malafide organisaties moeilijk te beteugelen zijn.

De integratie van autonome AI in militaire defensiesystemen moet een gebied van bijzondere zorg zijn. Er zijn al aanwijzingen dat mensen vrijwillig veel macht zullen afstaan aan steeds capabelere systemen, omdat ze nuttige taken veel sneller en effectiever kunnen uitvoeren zonder menselijke tussenkomst. Regeringen zijn daarom terughoudend om op dit gebied regels op te stellen, gezien de strategische voordelen die AI biedt, zoals onlangs op verwoestende wijze is aangetoond in Gaza.

Dit betekent dat we al gevaarlijk dicht bij een afgrond zijn waar autonome wapens ethische grenzen overschrijden en internationale wetten omzeilen. In zo’n wereld kan het overgeven van macht aan AI-systemen om een tactisch voordeel te behalen onbedoeld een keten van snel escalerende, zeer destructieve gebeurtenissen in gang zetten. In een oogwenk kan de collectieve intelligentie van onze planeet worden weggevaagd.

De mensheid bevindt zich op een cruciaal punt in haar technologische traject. Onze acties nu kunnen bepalen of we een blijvende interstellaire beschaving worden, of bezwijken onder de uitdagingen van onze eigen creaties.

Seti gebruiken als een lens waardoor we onze toekomstige ontwikkeling kunnen onderzoeken voegt een nieuwe dimensie toe aan de discussie over de toekomst van AI. Het is aan ons allemaal om ervoor te zorgen dat wanneer we naar de sterren reiken, we dat niet doen als een waarschuwend verhaal voor andere beschavingen, maar als een baken van hoop – een soort die heeft geleerd om te gedijen naast AI.

Michael Garrett werkt niet voor, voert geen advies uit over, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat hebben bij dit artikel en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Mobiele versie afsluiten