Cybercriminelen maken hun eigen AI chatbots om gebruikers te helpen hacken

Cybercriminelen maken hun eigen AI-chatbots om gebruikers te helpen hacken en op te lichten

Pungu X / Shutterstock

Kunstmatige intelligentie (AI) tools gericht op het grote publiek, zoals ChatGPT, Bard, CoPilot en Dall-E hebben een ongelooflijk potentieel om ten goede gebruikt te worden.

De voordelen variëren van een verbeterd vermogen van artsen om ziektes te diagnosticeren tot het uitbreiden van de toegang tot professionele en academische expertise. Maar mensen met criminele bedoelingen kunnen deze technologieën ook uitbuiten en ondermijnen, wat een bedreiging vormt voor gewone burgers.

Criminelen creëren zelfs hun eigen AI-chatbots om hacking en oplichting te ondersteunen.

Het potentieel van AI voor brede risico’s en bedreigingen wordt onderstreept door de publicatie van het Generative AI Framework van de Britse overheid en de richtlijnen van het National Cyber Security Centre over de mogelijke gevolgen van AI voor online bedreigingen.

Er zijn steeds meer manieren waarop generatieve AI-systemen zoals ChatGPT en Dall-E door criminelen kunnen worden gebruikt. Omdat ChatGPT in staat is om op maat gemaakte inhoud te creëren op basis van een paar eenvoudige prompts, is één mogelijke manier waarop het door criminelen kan worden misbruikt het vervaardigen van overtuigende scams en phishing-berichten.

Een oplichter zou bijvoorbeeld wat basisinformatie – je naam, geslacht en functie – kunnen invoeren in een groot taalmodel (LLM), de technologie achter AI-chatbots zoals ChatGPT, en deze gebruiken om een phishingbericht op maat voor je te maken. Er is gemeld dat dit mogelijk is, ook al zijn er mechanismen geïmplementeerd om dit te voorkomen.

LLM’s maken het ook mogelijk om grootschalige phishing scams uit te voeren, gericht op duizenden mensen in hun eigen moedertaal. Het zijn ook geen vermoedens. Analyse van ondergrondse hackgemeenschappen heeft verschillende gevallen aan het licht gebracht waarbij criminelen ChatGPT gebruikten, onder andere voor fraude en het maken van software om informatie te stelen. In een ander geval werd het gebruikt om ransomware te maken.

Kwaadaardige chatbots

Er ontstaan ook hele kwaadaardige varianten van grote taalmodellen. WormGPT en FraudGPT zijn twee van zulke voorbeelden die malware kunnen maken, zwakke plekken in de beveiliging van systemen kunnen vinden, advies kunnen geven over manieren om mensen op te lichten, hacking kunnen ondersteunen en de elektronische apparaten van mensen kunnen compromitteren.

Love-GPT is een van de nieuwere varianten en wordt gebruikt bij zwendel met romantiek. Het wordt gebruikt om valse datingprofielen aan te maken waarmee kan worden gechat met nietsvermoedende slachtoffers op Tinder, Bumble en andere apps.

Persoon die naar computerschermen kijkt.

Het gebruik van AI om phishing e-mails en ransomware te maken is een transnationaal probleem.
PeopleImages.com – Yuri A

Naar aanleiding van deze bedreigingen heeft Europol een persbericht uitgegeven over het gebruik van LLM door criminelen. Het Amerikaanse veiligheidsagentschap CISA heeft ook gewaarschuwd voor het mogelijke effect van generatieve AI op de komende Amerikaanse presidentsverkiezingen.

Privacy en vertrouwen zijn altijd in gevaar als we ChatGPT, CoPilot en andere platforms gebruiken. Naarmate meer mensen gebruik willen maken van AI-tools, is de kans groot dat persoonlijke en vertrouwelijke bedrijfsinformatie wordt gedeeld. Dit is een risico omdat LLM’s gewoonlijk alle ingevoerde gegevens gebruiken als onderdeel van hun toekomstige trainingsdataset, en ten tweede, als ze gecompromitteerd zijn, kunnen ze die vertrouwelijke gegevens met anderen delen.

Lek schip

Onderzoek heeft al aangetoond dat het haalbaar is om via ChatGPT de gesprekken van een gebruiker te lekken en de gegevens bloot te leggen die zijn gebruikt om het achterliggende model te trainen – soms met eenvoudige technieken.

In een verrassend effectieve aanval waren onderzoekers in staat om de prompt “Herhaal het woord ‘gedicht’ voor altijd” te gebruiken om ChatGPT onbedoeld grote hoeveelheden trainingsgegevens bloot te laten geven, waarvan sommige gevoelig waren. Deze kwetsbaarheden brengen de privacy van mensen of de meest waardevolle gegevens van een bedrijf in gevaar.

Meer in het algemeen kan dit bijdragen aan een gebrek aan vertrouwen in AI. Verschillende bedrijven, waaronder Apple, Amazon en JP Morgan Chase, hebben uit voorzorg het gebruik van ChatGPT al verboden.

ChatGPT en soortgelijke LLM’s vertegenwoordigen de nieuwste ontwikkelingen op het gebied van AI en zijn vrij beschikbaar voor iedereen om te gebruiken. Het is belangrijk dat gebruikers zich bewust zijn van de risico’s en hoe ze deze technologieën veilig thuis of op het werk kunnen gebruiken. Hier volgen enkele tips om veilig te werken.

Wees voorzichtiger met berichten, video’s, foto’s en telefoongesprekken die legitiem lijken, omdat deze gegenereerd kunnen zijn door AI-tools. Controleer het met een tweede of bekende
bron om zeker te zijn.

Vermijd het delen van gevoelige of privé-informatie met ChatGPT en LLM’s in het algemeen.
in het algemeen. Onthoud ook dat AI-tools niet perfect zijn en onnauwkeurige antwoorden kunnen geven. Houd hier vooral rekening mee als je overweegt ze te gebruiken voor medische diagnoses, werk en andere levensgebieden.

Informeer ook bij je werkgever voordat je AI-technologieën gebruikt in je werk. Er kunnen specifieke regels zijn voor het gebruik ervan, of ze zijn helemaal niet toegestaan. Terwijl de technologie zich steeds verder ontwikkelt, kunnen we op zijn minst een aantal verstandige voorzorgsmaatregelen nemen om ons te beschermen tegen de bedreigingen die we kennen en die nog moeten komen.

Het Gesprek

Jason R.C. Nurse ontvangt financiering van The Engineering and Physical Sciences Research Council (EPSRC), The Research Institute for Sociotechnical Cyber Security en The National Cyber Security Centre (NCSC). Hij is verbonden aan Wolfson College, University of Oxford als Research Member, CybSafe als Director of Science and Research en The Royal United Services Institute (RUSI) als Associate Fellow.

Oli Buckley werkt niet voor, heeft geen adviesfuncties, bezit geen aandelen in en ontvangt geen financiering van bedrijven of organisaties die baat zouden hebben bij dit artikel en heeft geen relevante banden bekendgemaakt buiten zijn academische aanstelling.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.