De grootste technologische risico’s waarmee we in 2040 te maken zullen hebben

De grootste technologische risicos waarmee we in 2040 te maken

Het 4Stock Team

De technologie en het bereik van computersystemen veranderen verbijsterend snel.
systemen. Er is opwindende vooruitgang in kunstmatige intelligentie, in de massa’s kleine onderling verbonden apparaten die we het “internet der dingen” noemen en in draadloze connectiviteit.

Helaas brengen deze verbeteringen zowel potentiële gevaren als voordelen met zich mee. Voor een veilige toekomst moeten we anticiperen op wat er zou kunnen gebeuren op het gebied van computergebruik en dit vroegtijdig aanpakken. Dus, wat denken experts dat er gaat gebeuren en wat kunnen we doen om grote problemen te voorkomen?

Om die vraag te beantwoorden, wendde ons onderzoeksteam van de universiteiten in Lancaster en Manchester zich tot de wetenschap van het kijken in de toekomst, die “voorspellen” wordt genoemd. Niemand kan de toekomst voorspellen, maar we kunnen wel voorspellingen samenstellen: beschrijvingen van wat er kan gebeuren op basis van huidige trends.

Lange termijn voorspellingen van trends in technologie kunnen inderdaad opmerkelijk accuraat blijken. En een uitstekende manier om voorspellingen te krijgen is om de ideeën van veel verschillende experts te combineren en te kijken waar ze het met elkaar eens zijn.

Voor een nieuw onderzoek hebben we 12 deskundige “futuristen” geraadpleegd. Dit zijn mensen die zich bezighouden met langetermijnvoorspellingen over de effecten van veranderingen in computertechnologie tegen het jaar 2040.

Met behulp van een techniek die Delphi-studie wordt genoemd, hebben we de voorspellingen van de futuristen gecombineerd tot een reeks risico’s, samen met hun aanbevelingen om die risico’s aan te pakken.

Softwarezorgen

De experts voorzagen snelle vooruitgang op het gebied van kunstmatige intelligentie (AI) en verbonden systemen, wat zou leiden tot een wereld die veel meer door computers wordt aangestuurd dan nu het geval is. Verrassend genoeg verwachtten ze echter weinig impact van twee veel gehypete innovaties: Blockchain, een manier om informatie vast te leggen die het onmogelijk of moeilijk maakt om het systeem te manipuleren, is volgens hen grotendeels irrelevant voor de problemen van vandaag; en Quantum computing bevindt zich nog in een vroeg stadium en kan de komende 15 jaar weinig impact hebben.

De futuristen wezen op drie grote risico’s die samenhangen met ontwikkelingen in computersoftware.

AI-competitie leidt tot problemen

Onze experts stelden dat de houding van veel landen ten opzichte van AI als een gebied waarop ze een technologische voorsprong willen nemen, softwareontwikkelaars zal aanmoedigen om risico’s te nemen bij het gebruik van AI. In combinatie met de complexiteit van AI en het potentieel om menselijke vaardigheden te overtreffen, zou dit tot rampen kunnen leiden.

Stel je bijvoorbeeld voor dat sluiproutes bij het testen leiden tot een fout in de besturingssystemen van auto’s die na 2025 worden gebouwd, die onopgemerkt blijft te midden van alle complexe programmering van AI. Het zou zelfs gekoppeld kunnen worden aan een specifieke datum, waardoor grote aantallen auto’s zich op hetzelfde moment onregelmatig gaan gedragen, waardoor wereldwijd veel mensen om het leven komen.

Generatieve AI

Generatieve AI kan het onmogelijk maken om de waarheid te achterhalen. Jarenlang is het heel moeilijk geweest om foto’s en video’s te vervalsen en daarom verwachten we dat ze echt zijn. Generatieve AI heeft deze situatie al radicaal veranderd. We verwachten dat het vermogen om overtuigende nepmedia te produceren nog zal verbeteren, zodat het extreem moeilijk zal worden om te bepalen of een afbeelding of video echt is.

Stel dat iemand in een vertrouwenspositie – een gerespecteerde leider of een beroemdheid – sociale media gebruikt om echte inhoud te tonen, maar af en toe overtuigende vervalsingen toevoegt. Voor degenen die hen volgen, is er geen manier om het verschil te bepalen – het zal onmogelijk zijn om de waarheid te kennen.

Onzichtbare cyberaanvallen

Ten slotte heeft de enorme complexiteit van de systemen die gebouwd zullen worden – netwerken van systemen die eigendom zijn van verschillende organisaties en allemaal van elkaar afhankelijk zijn – een onverwacht gevolg.
netwerken van systemen die eigendom zijn van verschillende organisaties en allemaal van elkaar afhankelijk zijn – een onverwacht gevolg. Het wordt moeilijk, zo niet onmogelijk, om tot de kern door te dringen van wat de oorzaak is dat dingen fout gaan.

Stel je voor dat een cybercrimineel een app hackt die wordt gebruikt om apparaten zoals ovens of koelkasten te bedienen, waardoor alle apparaten tegelijk worden ingeschakeld. Dit veroorzaakt een piek in de vraag naar elektriciteit op het elektriciteitsnet, waardoor grote stroomonderbrekingen ontstaan.

De experts van het energiebedrijf zullen het een uitdaging vinden om zelfs maar te identificeren welke apparaten de piek hebben veroorzaakt, laat staan dat ze kunnen zien dat ze allemaal door dezelfde app worden bestuurd. Cybersabotage wordt onzichtbaar en onmogelijk te onderscheiden van normale problemen.

Cyberaanvallen kunnen stroompieken op het elektriciteitsnet veroorzaken, wat kan leiden tot uitval.
David Calvert / Shutterstock

Software jujitsu

De bedoeling van zulke voorspellingen is niet om onrust te zaaien, maar om ons in staat te stellen de problemen aan te pakken. De eenvoudigste suggestie van de experts was misschien wel een soort software jujitsu: software gebruiken om zichzelf te beschermen. We kunnen computerprogramma’s hun eigen veiligheidscontroles laten uitvoeren door extra code te maken die de uitvoer van de programma’s valideert – in feite code die zichzelf controleert.

Op dezelfde manier kunnen we erop aandringen dat methoden die al gebruikt worden om veilige werking van software te garanderen, toegepast blijven worden op nieuwe technologieën. En dat de nieuwigheid van deze systemen niet wordt gebruikt als excuus om goede veiligheidspraktijken over het hoofd te zien.

Strategische oplossingen

Maar de experts waren het erover eens dat technische antwoorden alleen niet genoeg zullen zijn. In plaats daarvan zullen oplossingen worden gevonden in de interacties tussen mens en technologie.

We moeten de vaardigheden ontwikkelen om met deze menselijke technologische problemen om te gaan, en nieuwe vormen van onderwijs ontwikkelen die disciplines overstijgen. En overheden moeten veiligheidsprincipes opstellen voor hun eigen AI-aankopen en wetgeving opstellen voor AI-veiligheid in de hele sector, waarbij verantwoorde ontwikkelings- en implementatiemethoden worden aangemoedigd.

Deze voorspellingen geven ons een reeks instrumenten om de mogelijke problemen van de toekomst aan te pakken. Laten we die instrumenten gebruiken om de opwindende belofte van onze technologische toekomst waar te maken.

Dit onderzoek werd gefinancierd door het UK North West Partnership for Security and Trust, dat gefinancierd wordt door GCHQ. De financieringsovereenkomsten vereisten dat dit artikel werd beoordeeld om er zeker van te zijn dat de inhoud ervan niet in strijd was met de Britse Official Secrets Act en geen gevoelige, geclassificeerde of persoonlijke informatie onthulde.

Mobiele versie afsluiten