AI wordt al versmolten met robotica een resultaat zou

AI wordt al versmolten met robotica – één resultaat zou krachtige nieuwe wapens kunnen zijn

USAF / Soldaat 1e klas Isaiah Pedrazzini

De belangstelling voor de integratie van robots in veiligheids-, politie- en militaire operaties is de afgelopen jaren gestaag toegenomen. Het is een weg die al wordt verkend in zowel Noord-Amerika als Europa.

De integratie van robots in deze gebieden kan worden gezien als analoog aan de integratie van honden in politietaken en militaire taken in de 20e eeuw. Honden hebben onder andere gediend als bewakers, schildwachten, boodschappendragers en mijndetectoren.

Utility robots, ontworpen om mensen te ondersteunen, bootsen onze viervoeters na, niet alleen qua vorm, maar ook qua functie. Uitgerust met bewakingstechnologie en in staat om uitrusting, munitie en meer te vervoeren als onderdeel van bevoorradingsketens, zouden ze het risico op schade aan menselijke soldaten op het slagveld aanzienlijk kunnen minimaliseren.

Echter, utiliteitsrobots zouden ongetwijfeld een andere dimensie krijgen als er wapensystemen aan zouden worden toegevoegd. In wezen zouden ze varianten op land worden van de MQ-9 Predator-drones die momenteel door het Amerikaanse leger worden gebruikt.

In 2021 toonde het bedrijf Ghost Robotics een van hun vierpotige robots, Q-UGV genaamd, die bewapend was met een Special Purpose Unmanned Rifle 4. De showcase leunde aan tegen het idee van wapensystemen. De showcase leunde aan tegen de bewapening van utiliteitsrobots.

Het is belangrijk om te zien hoe elk aspect van deze combinatie van wapens en robotica op een andere manier werkt. Hoewel de robot zelf semi-autonoom is en op afstand bestuurd kan worden, heeft het gemonteerde wapen geen autonome mogelijkheden en wordt het volledig bestuurd door een operator.

In september 2023 voerden de Amerikaanse mariniers een ‘proof of concept’-test uit met een andere utility robot met vier poten. Ze maten de capaciteiten om “doelen te verwerven en te vervolgen met een M72 Light Anti-Tank Weapon”.

De test wakkerde het ethische debat over het gebruik van geautomatiseerde en half-geautomatiseerde wapensystemen in oorlogsvoering weer aan. Het zou voor geen van deze platformen zo’n grote stap zijn om AI-gestuurde dreigingsdetectie in te bouwen en de mogelijkheid om doelen “op te sporen”. In feite zijn dit soort zichtsystemen al beschikbaar op de open markt.

Amerikaanse mariniers testen een antitankwapen gemonteerd op een robot “geit”.

In 2022 ondertekenden een dozijn toonaangevende robotica-bedrijven een open brief die gehost werd op de website van Boston Dynamics, dat een hondachtige utiliteitsrobot genaamd Spot creëerde. In de brief spraken de bedrijven zich uit tegen de bewapening van commercieel beschikbare robots.

In de brief stond echter ook dat de bedrijven geen bezwaar hadden tegen “bestaande technologieën die naties en hun overheidsinstanties gebruiken om zichzelf te verdedigen en hun wetten te handhaven”. Op dat punt is het de moeite waard om te overwegen of het kalf al verdronken is als het gaat om de bewapening van AI. Wapensystemen met intelligente technologie geïntegreerd in robotica worden al gebruikt in gevechten.

Deze maand publiceerde Boston Dynamics een video waarin te zien was hoe het bedrijf de AI-chatbot ChatGPT had toegevoegd aan zijn Spot-robot. Te zien is hoe de machine reageert op vragen en gesprekken van een van de ingenieurs van het bedrijf met behulp van verschillende “persoonlijkheden”, zoals een Engelse butler. De antwoorden komen van de AI-chatbot, maar Spot spreekt de woorden uit.

Boston Dynamics heeft ChatGPT toegevoegd aan zijn robothond Spot.

Het is een fascinerende en mogelijk positieve stap voor de industrie. Maar terwijl Boston Dynamics vasthoudt aan zijn belofte om zijn robots niet te bewapenen, denken andere bedrijven daar misschien anders over. Er is ook een kans op misbruik van dergelijke robots door mensen of instellingen die geen moreel kompas hebben. Zoals de open brief laat doorschemeren: “Waar mogelijk zullen we de beoogde toepassingen van onze klanten zorgvuldig bekijken om mogelijke bewapening te voorkomen.”

Brits standpunt

Het VK heeft al een standpunt ingenomen over de bewapening van AI met hun Defence Artificial Intelligence Strategy, gepubliceerd in 2022. In het document wordt de intentie uitgesproken om kunstmatige intelligentie snel te integreren in de systemen van het ministerie van Defensie om de veiligheid te versterken en de strijdkrachten te moderniseren.

Opvallend is echter dat in een bijlage bij het strategiedocument specifiek de potentiële uitdagingen worden erkend die gepaard gaan met dodelijke autonome wapensystemen.

Er worden bijvoorbeeld gegevens uit de echte wereld gebruikt om AI-systemen te “trainen” of te verbeteren. Bij ChatGPT worden deze gegevens van het internet gehaald. Hoewel het AI-systemen helpt om nuttiger te worden, kan al die informatie uit de “echte wereld” ook onjuiste aannames en vooroordelen doorgeven aan het systeem zelf. Dit kan leiden tot algoritmische bias (waarbij de AI de ene groep of optie verkiest boven de andere) of ongepaste en disproportionele reacties van de AI. Als zodanig moeten voorbeeldtrainingsgegevens voor wapensystemen zorgvuldig worden onderzocht met ethische oorlogsvoering in gedachten.

Dit jaar heeft het House of Lords een AI in Weapon Systems select committee opgericht. De opdracht is om te bekijken hoe de strijdkrachten de vruchten kunnen plukken van de technologische vooruitgang en tegelijkertijd de risico’s kunnen minimaliseren door technische, juridische en ethische waarborgen te implementeren. De toereikendheid van het Britse beleid en de internationale beleidsvorming wordt ook onderzocht.

Robothonden richten nog geen wapens op tegenstanders. Maar alle elementen zijn aanwezig om dit scenario werkelijkheid te laten worden, als er niets aan wordt gedaan. De snelle ontwikkelingen in zowel AI als robotica creëren een perfecte storm die zou kunnen leiden tot krachtige nieuwe wapens.

De recente AI-veiligheidstop in Bletchley Park had een positief resultaat voor AI-regulering, zowel in het VK als internationaal. Er waren echter tekenen van een filosofische breuk tussen de doelen van de top en die van de AI in wapensystemen commissie.

De top was gericht op het definiëren van AI, het beoordelen van de mogelijkheden en beperkingen ervan en het creëren van een wereldwijde consensus met betrekking tot het ethisch gebruik ervan. Er werd getracht dit te doen via een verklaring, die veel lijkt op de open brief van Boston Dynamics. Geen van beide is echter bindend. De commissie streeft naar een duidelijke en snelle integratie van de technologie, zij het in overeenstemming met ethiek, regelgeving en internationale wetgeving.

Veelvuldig gebruik van de term “vangrails” in relatie tot de Bletchley top en verklaring suggereert vrijwillige verbintenissen. En de Britse premier Rishi Sunak heeft verklaard dat landen niet overhaast moeten reguleren.

De nobelheid van zulke uitspraken neemt af in het licht van het enthousiasme in sommige kringen om de technologie te integreren in wapenplatforms.

De conversatie

Mark Tsagas werkt niet voor, heeft geen adviesfuncties, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat zouden hebben bij dit artikel en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.