In korte tijd is kunstmatige intelligentie (AI) uitgegroeid tot een gamechanger in cybersecurity – zowel voor verdedigers als voor aanvallers.
Als ethische hacker bij Route443 heb ik van dichtbij meegemaakt hoe AI van een handig hulpmiddel evolueerde tot een tweesnijdend zwaard dat het digitale dreigingslandschap opschudt. Waar AI vroeger vooral werd ingezet voor automatisering en optimalisatie, zorgen recente vorderingen in generatieve AI – zoals ChatGPT én zijn duistere evenknie WormGPT – voor steeds slimmere en gevaarlijkere cyberaanvallen. Dit artikel geeft een inkijkje in hoe cybercriminelen AI inzetten voor hun kwade bedoelingen, en hoe wij bij Route443 diezelfde technologie benutten om organisaties te verdedigen.
AI: een dubbelzijdig zwaard in cybersecurity.
AI heeft onze manier van werken, communiceren en informatie verwerken ingrijpend veranderd. Maar zoals met elke krachtige technologie heeft AI twee gezichten. De positieve kant zien we in slimme beveiligingstools en automatisering; de schaduwzijde zien we in crimineel misbruik. Terwijl wij bij Route443 AI gebruiken om bedreigingen op te sporen en te voorkomen, maken cybercriminelen gretig gebruik van AI voor kwaadwillige doeleinden. Dit blijkt uit recente trends: het aantal deepfake fraudepogingen is explosief gestegen. AI-gegenereerde stemklonen hebben al banken om de tuin geleid en financiële bedrijven voor miljoenen opgelicht. Met generatieve AI kunnen aanvallers traditionele hacktechnieken verfijnen en geheel nieuwe vormen van cybercrime ontwikkelen – sneller, schaalbaarder en overtuigender dan ooit tevoren.
Phishing en social engineering: AI als versneller
Phishing-aanvallen behoren al jarenlang tot de populairste aanvalsmethoden, maar generatieve AI tilt ze naar een nieuw niveau. Wat vroeger een hacker uren kostte – het schrijven van een overtuigende phishing-e-mail – kan nu in enkele minuten door een AI model worden gedaan. Generatieve AI zoals ChatGPT kan perfect geformuleerde teksten maken, zelfs in talen die de aanvaller zelf niet machtig is. Op ondergrondse forums delen criminelen tips om AI hiervoor in te zetten: een phishingbericht wordt eerst in de eigen taal geschreven, daarna vertaald en vervolgens door AI verfijnd tot een perfecte toon en grammatica. Het resultaat is een explosie van geloofwaardige, gepersonaliseerde phishing-e-mails die veel lastiger te herkennen zijn. Deze ontwikkeling verlaagt de drempel voor kwaadwillenden aanzienlijk. Waar een phisher voorheen taalvaardig of technisch onderlegd moest zijn, hoeft hij nu alleen maar een slim prompt in te voeren om een overtuigend lokaas te creëren. Onderzoek laat zien dat AI-geholpen phishingsimulaties inmiddels bijna net zo vaak worden aangeklikt als door mensen geschreven versies – het verschil wordt snel kleiner. Met de opkomst van geavanceerde modellen die emotie en context nog beter nabootsen, is het waarschijnlijk dat AI-gecreëerde phishingcontent minstens even overtuigend wordt als door mensen gemaakte pogingen. Simpel gezegd: de technologie van de aanvaller wordt steeds slimmer, zonder dat de aanvaller zelf slimmer hoeft te zijn.
Malware en code: AI als wapen voor kwaadwillenden
Niet alleen social engineering profiteert van AI – ook malwareontwikkeling krijgt een boost. Aanvallers kunnen nu AI inzetten om kwaadaardige software te genereren. Dit maakt malware sneller te ontwikkelen en vaker te variëren, wat detectie bemoeilijkt. Waar men vroeger diepgaande programmeerkennis nodig had om een virus of exploit te schrijven, kan een hacker nu een AI vragen om de klus te klaren. Onlangs werd nog een aanvalscampagne ontdekt waarbij de schadelijke code vrijwel zeker met hulp van generatieve AI was geschreven. De structuur van die malwarecode – compleet met commentaarregels die elke stap uitleggen – verraadde dat een AI-model als co-auteur had gediend. Dit is zorgwekkend omdat AI niet alleen de ontwikkeling versnelt, maar ook het aanpassen van malware. Een slim AI-model kan code automatisch optimaliseren om bijvoorbeeld antivirusfilters te omzeilen. Nieuwe aanvalsvarianten kunnen in recordtijd worden gemaakt, telkens nét anders genoeg om langs detectiesystemen te glippen. Organisaties lopen hierdoor voortdurend achter de feiten aan: tegen de tijd dat een nieuwe dreiging wordt herkend en geblokkeerd, heeft een AI-aangedreven aanvaller zijn payload alweer gemuteerd in iets nieuws. De traditionele signature-gebaseerde beveiliging schiet tekort tegenover deze vloedgolf van AI-gegeneerde varianten. Het inzetten van gedragsgebaseerde detectie en AI in de verdediging wordt daarmee essentieel.
De opkomst van ‘black hat’ AI-modellen
Gezien het voorgaande is het geen verrassing dat er inmiddels AI-modellen bestaan die expliciet voor cybercrime zijn ontwikkeld. Waar “white hat” AI wordt gebruikt door beveiligers om aanvallen te detecteren en te voorkomen, is er ook een black hat tegenhanger: AI ontwikkeld door en voor de “slechteriken” van het internet. Een treffend voorbeeld is WormGPT, een dark-web variant van ChatGPT zonder enige morele of technische beperkingen. Dit model – in feite de evil twin van ChatGPT – is getraind op onder meer malware-gerelateerde data en kent geen contentmoderatie. Het resultaat is een AI die zonder scrupules phishingmails, schadelijke code of andere illegale output genereert op verzoek. Onderzoekers wisten toegang te krijgen tot WormGPT en lieten het een frauduleuze factuurmail opstellen; de resultaten waren “onrustbarend” en “buitengewoon overtuigend”. WormGPT is helaas niet de enige. Er is een zorgwekkende trend zichtbaar van AI-modellen speciaal ontworpen voor cybercriminelen. Zo zijn op underground fora ook andere kwaadaardige chatbots opgedoken, zoals FraudGPT, gericht op financieel gemotiveerde fraude. Deze black-hat AI-tools worden verkocht op darkweb marktplaatsen en via gesloten Telegram-kanalen, vaak in een abonnementsmodel. Toegang tot WormGPT werd onlangs bijvoorbeeld aangeboden voor €60 tot €100 per maand (of €550 per jaar), en er zijn inmiddels honderden afnemers. Dit creëert een heuse ‘AI-as-a-service’ voor cybercrime: vrijwel elke kwaadwillende met Bitcoins en een internetverbinding kan geavanceerde AI-tools inhuren om zijn aanvallen te automatiseren en op te schalen.
Concrete dreigingen door black-hat AI: Deze opkomst van kwaadaardige AI vertaalt zich direct in nieuwe aanvalsmogelijkheden. Enkele voorbeelden die we nu al zien of binnenkort kunnen verwachten:
- Malware en detectie-omzeiling: Aanvallers kunnen AI inzetten om code te schrijven die specifiek ontworpen is om beveiligingsmaatregelen te omzeilen. Stel, een hacker wil een endpoint-beveiligingstool als SentinelOne of Microsoft Defender ontwijken. Een black-hat AI zoals WormGPT kan in dat geval kwaadaardige code genereren die net zo lang automatisch wordt bijgeschaafd tot antivirussoftware haar niet meer als verdacht aanmerkt. Dit proces – evasion genoemd – was voorheen tijdrovend en vereist expertise, maar kan nu razendsnel en geautomatiseerd worden uitgevoerd. Generatieve AI wordt inmiddels daadwerkelijk gebruikt om malware te creëren die zich als een digitale kameleon door onze verdedigingslinies beweegt.
- Deepfake social engineering: Cybercriminelen kunnen nu in korte tijd overtuigende deepfake-audio of zelfs -video maken van bijvoorbeeld een CEO, om medewerkers te misleiden of gevoelige handelingen uit te voeren. Wat sciencefiction leek, is realiteit: recent werd een directeur van een multinational benaderd via WhatsApp door iemand die zich voordeed als CEO – compleet met een AI-gegenereerde stem met accent en een profielfoto – om een vertrouwelijke financiële transactie te starten. In dit geval kreeg de directeur argwaan en wist hij de fraude te voorkomen door een controlevraag te stellen waarop de nep-CEO geen antwoord had. Maar in andere gevallen lukt de deepfake-zwendel wél: begin 2024 werd een medewerkster van een bedrijf in Hongkong overtuigd om miljoenen over te maken, nadat zij via een videovergadering misleid was door fraudsters die zich voordeden als haar CFO en collega’s. Zulke incidenten tonen aan dat zelfs goed getrainde werknemers kunnen worden bedot wanneer een aanval hyperrealistisch overkomt.
Deze voorbeelden illustreren hoe slim en gevaarlijk AI-gedreven aanvallen inmiddels zijn. Bovendien gaan ontwikkelingen snel: zodra verdedigers één methode doorzien, vinden aanvallers weer een nieuwe toepassing van AI om de volgende aanval nóg geraffineerder te maken.
Wat betekent dit voor cybersecurity?
De opkomst van AI-gebaseerde aanvallen heeft grote gevolgen voor onze manier van verdedigen. Als ethische hackers en beveiligingsprofessionals moeten we continu onze strategieën bijstellen en onze tools upgraden om deze nieuwe dreigingen het hoofd te bieden. Traditionele detectiemethoden – zoals handmatige monitoring van netwerkverkeer of simpelweg letten op spelfouten in e-mails – schieten tekort in het tijdperk van generatieve AI. Wanneer phishingmails foutloos zijn en malware zichzelf herschrijft, moeten wij naar nieuwe middelen grijpen. Een belangrijk besef is dat we AI moeten bestrijden met AI. Moderne security oplossingen maken dan ook steeds vaker gebruik van machine learning en gedragsanalyse om afwijkingen op te merken die kunnen duiden op een aanval. Denk aan systemen die het normale netwerkgedrag leren en alarm slaan bij anomalieën die kunnen wijzen op een binnendringer, ook al is die aanval door AI gegenereerd en nog nooit eerder vertoond. Dergelijke AI-gedreven detectie zorgt ervoor dat we sneller en effectiever kunnen reageren op nieuwe dreigingen. Ook toezichthouders en opsporingsdiensten erkennen de ernst van deze trend. Met andere woorden: het speelveld verandert zó snel dat we een digitale wapenwedloop tegemoet gaan. Niemand kan het zich permitteren om achterover te leunen. Voor ons als verdedigers betekent dit dat we in een continue staat van paraatheid en innovatie moeten verkeren.
Hoe Route443 AI inzet voor beveiliging
Bij Route443 omarmen we AI aan de verdedigende kant. We zetten machine learning modellen in om netwerkverkeer, login-activiteiten en andere patronen 24/7 te analyseren op verdachte afwijkingen. In plaats van enkel te reageren op bekende aanvalssignaturen, kijkt het AI-gedreven systeem naar gedragingen: wie of wat gedraagt zich ineens anders dan normaal? Door deze aanpak kunnen we zelfs nieuwe, door AI aangedreven aanvallen in een vroeg stadium detecteren – nog voordat er schade wordt aangericht. Denk aan een gebruikersaccount dat opeens midden in de nacht grote hoeveelheden data gaat kopiëren, of een inboxregel die automatisch al het binnenkomende mailverkeer naar een extern adres doorzet. Zulke signalen pikken onze AI-analyses eruit, zodat we direct (geautomatiseerd) kunnen ingrijpen.
Daarnaast gebruiken we AI voor proactieve beveiligingstests. Met AI-gestuurde simulaties bootsen we realistische aanvallen na in ons Cybersecurity Experience Center, compleet met generatieve phishingmails en AI-malware. Hiermee voeren we als het ware een gecontroleerde cyber-fire drill uit. Door te observeren hoe de infrastructuur en toegepaste beveiliging op deze gesimuleerde aanvallen reageren, kunnen we zwakke plekken blootleggen en verhelpen voordat échte aanvallers toeslaan. Zo helpen AI-tools ons om onze “red team” offensieve tests sneller en creatiever uit te voeren, wat uiteindelijk leidt tot sterkere verdediging. In onze Cybersecurity Academy zorgen wij er dan voor dat deze nieuwe inzichten en kennis worden geborgd bij onze medewerkers en toekomstige medewerkers. Kortom, we zetten AI in als bondgenoot: om anomalieën te spotten, om sneller te reageren én om vooruit te denken door onze eigen systemen constant op de proef te stellen.
Hoe organisaties zich kunnen beschermen
De razendsnelle evolutie van AI-gedreven cyberdreigingen vereist een nieuwe beveiligingsaanpak. Organisaties moeten niet alleen hun technologie up-to-date houden, maar ook hun mensen en processen. Enkele belangrijke strategieën om weerbaar te blijven:
- AI-gedreven detectie en preventie: Zorg dat je beveiligingssystemen gebruikmaken van machine learning en gedragsanalyse. Door AI in te zetten aan de defensieve kant kun je verdachte activiteiten razendsnel identificeren, zelfs als aanvallen telkens van vorm veranderen. Moderne endpoint-beveiliging (EDR/XDR) met AI zijn onmisbaar om automatische, door AI gegenereerde aanvallen af te slaan.
- Strikte identiteitsbeveiliging: Beveilig gebruikersaccounts en identiteiten met sterke maatregelen. Implementeer multi-factor authenticatie (MFA) op alle kritieke systemen, beperk toegangsrechten volgens het least privilege-principe en gebruik waar mogelijk extra verificaties (bijv. fysieke tokens of biometrie). Veel AI-gestuurde aanvallen (zoals BEC-phishing of deepfakes) proberen zich uit te geven voor legitieme personen – sterke identiteitscontroles maken het hen lastiger om hiermee succes te hebben.
- Proactieve beveiligingstests: Voer regelmatig penetratietests en simulaties uit, bijvoorbeeld door de inzet van onze Digital Defense Review (DDR). Door je eigen systemen te evalueren of aan te vallen in een gecontroleerde omgeving, ontdek je kwetsbaarheden voordat echte aanvallers dat doen. Dit houdt je team scherp en je beveiligingsmaatregelen up-to-date.
- Samenwerken met experts: Cybersecurity is een continu evoluerend vakgebied. Interne IT-teams kunnen niet altijd alles bijbenen. Schakel daarom gespecialiseerde expertise in – bijvoorbeeld Cybersecurity Consultants of Ethische Hackers van Route443 – om advies te geven en geavanceerde dreigingen te helpen pareren. Een externe securitypartner kan bovendien de nieuwste threat intelligence aanreiken, bijvoorbeeld over opkomende AI dreigingen, zodat je niet verrast wordt.
Tot slot: investeer in bewustwording. AI kan menselijke zwaktes uitbuiten, dus zorg dat medewerkers getraind zijn in het herkennen van verdachte signalen (een vreemd taalgebruik in een “leidinggevende” e-mail, een onverwacht verzoek in een videogesprek, enzovoort). De combinatie van getrainde mensen én slimme technologie biedt de beste kans om AI-gedreven aanvallen af te slaan.
Is bescherming nog wel mogelijk?
Met de huidige snelheid waarmee AI zich ontwikkelt en de steeds geavanceerdere middelen die in handen komen van cybercriminelen, dringt een spannende vraag zich op: kun je je organisatie nog wel afdoende beveiligen tegen deze golf van AI-gedreven dreigingen? Eerlijk gezegd moeten we erkennen dat absolute veiligheid niet bestaat. Wie zelfgenoegzaam denkt “ons zal het niet gebeuren”, begeeft zich op glad ijs. Zelfs de beste beveiligingstools zijn niet onfeilbaar wanneer aanvallers hun aanvallen blijven automatiseren, verfijnen en personaliseren met AI. De realiteit is dat het speelveld continu verandert, en organisaties moeten onafgebroken investeren in kennis, tooling, monitoring en samenwerking om bij te blijven.
Maar – en dit is de positieve kant – dezelfde AI die door aanvallers wordt gebruikt, kan ook door verdedigers worden ingezet. Door als organisatie slim te blijven investeren in moderne, AI-gedreven detectie, het trainen van medewerkers en nauwe samenwerking met security-experts, kun je de kans op succesvolle aanvallen fors beperken. Het draait niet meer om één keer per jaar een audit of een update, maar om een flexibele, proactieve, continu lerende aanpak. Zie het als een digitale wapenwedloop: je hoeft niet perfect te zijn, maar je moet wél voortdurend in beweging blijven. Snelheid van reageren en adaptief vermogen zijn de nieuwe succesfactoren in cybersecurity.
Conclusie
De integratie van AI in zowel aanvallen als verdediging heeft de dynamiek van cybersecurity ingrijpend veranderd. Cybercriminelen gebruiken generatieve AI om hun aanvallen sneller, grootschaliger en geavanceerder te maken, maar wij als verdedigers hebben diezelfde technologie tot onze beschikking om onze verdediging te versterken. De sleutel tot succes in dit nieuwe tijdperk ligt in het vinden van de juiste balans: enerzijds inzetten op innovatieve beveiligingstechnologieën (zoals AI-gedreven detectie en response), en anderzijds een ethische, proactieve en bewuste benadering behouden.
De toekomst van cybersecurity ligt in samenwerking – niet alleen tussen beveiligingsexperts onderling, maar ook tussen mens en AI. Slimme AI-systemen kunnen ons helpen om sneller en nauwkeuriger te reageren op dreigingen, terwijl menselijke expertise nodig blijft om context te begrijpen en strategische beslissingen te nemen. Wij bij Route443 blijven wij ons onverminderd inzetten om systemen en gegevens te beschermen tegen de gevaren die nieuwe technologieën, zoals AI, met zich meebrengen. Onze taak is nu meer dan ooit om de verdediging van organisaties te versterken, continu te leren van zowel aanvallers als nieuwe tools, en ervoor te zorgen dat onze klanten voorbereid zijn op de razendsnel veranderende wereld van cyberdreigingen.
Samen – met elkaar én met AI – kunnen we deze uitdaging aangaan.