Moet de cyberbeveiligingswereld zich voorbereiden op aanvallen op de kritieke infrastructuur door AI?

Next story

Kunstmatige intelligentie, oftewel AI, kan worden omschreven als een hulpmiddel om het werk van mensen te ondersteunen en gemakkelijker te maken. Er is tegenwoordig steeds meer mogelijk met AI en hierdoor wordt de tool ook steeds vaker ingezet om op zowel werk- als privé gebied te ondersteunen. Specifiek op het gebied van cyberbeveiliging kan AI zowel een constructieve- als een destructieve rol spelen. Hierbij betekent de constructieve rol de ondersteuning van een betere cyberverdediging en een destructieve rol het dwarsbomen van de cyberverdediging.

De rol van AI - is hacken gemakkelijker geworden?
Volgens een interview met ESET-beveiligingsonderzoeker Cameron Camp zijn we nog niet echt in de buurt van "volledig door AI gegenereerde malware". Dit hoewel ChatGPT volgens hem behoorlijk goed is in het voorstellen van code, het genereren van codevoorbeelden en -fragmenten, het opsporen van fouten en het optimaliseren van code, en zelfs het automatiseren van documentatie.

Camp is het ermee eens dat ChatGPT kan worden gebruikt als een handig hulpmiddel om programmeurs te helpen, waarbij het kan dienen als een eerste stap in de richting van het bouwen van malware. Overigens is de gegenereerde input vanuit de Chatbot op dit moment nog erg oppervlakkig, waarbij er fouten worden gemaakt, valse antwoorden worden gegeven is de input niet geheel betrouwbaar is voor het bouwen van professionele malware.

Desalniettemin benadrukte Camp drie gebieden die interessant zouden kunnen zijn vanuit het perspectief van taalmodellen:

Phishing overtuigender maken - Door meer bronnen te onderzoeken en deze naadloos te combineren, kunnen e-mails gerichter worden gegenereerd, waardoor kwaadaardige elementen moeilijker te detecteren zijn. Dit maakt het lastiger om risico’s op onder andere het gebied van social engineering te herkennen en te voorkomen. Daarnaast wordt het door de specifiek gegenereerde e-mails lastiger om phishing te herkennen, doordat AI de grammatica controleert en optimaliseert.

Daarnaast zou de vorm spear-phishing nog overtuigender ingezet kunnen worden, doordat de op maat gemaakte e-mails of berichten, zelfs inclusief gepersonaliseerde emotionele triggers dankzij de hulp van AI, eenvoudiger te creëren zijn. Deze vaardigheden zullen verder worden ondersteund door meertalige tekst genererende opties, waardoor dergelijke methoden op grotere en wereldwijde schaal kunnen werken.

Automatisering van losgeldonderhandelingen – Aan de hand van ChatGPT kunnen ransomware-beheerders hun communicatie optimaliseren, om op deze wijze legitiem over te komen tijdens onderhandelingen. Dit zal zich resulteren in minder fouten, waardoor verdedigers de ware identiteit en locatie van beheerders kunnen achterhalen. Bovendien zouden kwaadwillende actoren dankzij het eenvoudiger genereren van video en spraak aan de hand van AI, hun identiteit efficiënter kunnen verbergen. De bezorgdheid rondom AI is op dit gebied enorm toegenomen, waardoor veel professionals in hun contracten een verbod willen opnemen op het gebruik van AI tijdens werkzaamheden.

Betere telefoonoplichting – Nu de generatie van hoogwaardigere taalvaardigheden in de Chatbot steeds natuurlijker wordt, kunnen kwaadwillenden geloofwaardiger overkomen. Denk hierbij aan elementen als locatie en het ‘kennen’ van jouw persoonlijke contacten. Laatst verscheen er in het nieuws een artikel waarin er sprake was van oplichting met de stem van haar zoon, gekloond door kustmatige intelligentie.

Zolang oplichters de juiste natuurlijke toon van iemands stem genereren, kunnen ze hun slachtoffers gemakkelijk voor de gek houden, maar het probleem met alle AI-gegenereerde content is dat er een zekere 'kunstmatigheid' in zit, wat betekent dat ondanks dat deze stemmen, video's of tekst er legitiem uitzien, ze toch een aantal specifieke fouten of problemen bevatten die gemakkelijk te herkennen zijn, zoals hoe ChatGPT valse beweringen doet of hoe antwoorden kunnen lijken alsof het gewoon een Wikipedia-pagina oplepelt.

Dit alles betekent echter niet dat AI niet kan worden gebruikt om te brainstormen of om een basis te creëren voor wat werk, maar de juistheid van de informatie moet nog steeds worden gecontroleerd.

Kritieke infrastructuur vs. AI - opkomende wetgeving
Nu AI een steeds belangrijkere rol begint te spelen in cyberbeveiliging, zullen bedrijven en overheden zich moeten aanpassen en AI in hun eigen voordeel gebruiken. Uit een rapport van Acumen Research and Consulting van juli 2022 blijkt dat de wereldwijde AI-markt in 2021 $14,9 miljard bedroeg en tegen 2030 naar schatting $133,8 miljard zal bedragen.

Dankzij het toenemende gebruik van de nieuwste technologieën, zouden cloud-gebaseerde beveiligingsdiensten nieuwe kansen kunnen bieden voor het gebruik van AI. Antivirus, gegevensverliespreventie-, fraudedetectie-, identiteits- en toegangsbeheer-, inbraakdetectie-/ preventiesystemen en risico- en nalevingsbeheerdiensten maken al gebruik van tools zoals Machine Learning om een veerkrachtige bescherming te genereren.

De inzet van AI is ook kwaadwillenden niet onopgemerkt gebleven, waarin zij de nieuwe tools in hun voordeel weten te gebruiken. Door de snel ontwikkelende technologieën, kunnen kwaadwillenden AI inzetten om computersystemen te identificeren en op deze wijze zwakke plekken in software of beveiligingsprogramma’s blootleggen.

Ook zullen veiligheidsactoren en overheden de nieuwe technologieën in de gaten moeten houden. De Europese Unie probeert de risico’s in te schatten door de EU AI Act voor stellen om het dreigingslandschap en de risico’s van AI in Europa in kaart te brengen. Hierbij worden er verschillende AI-tools geclassificeerd op basis van hun risiconiveau, van laag tot onaanvaardbaar. Overheden en bedrijven die deze tools gebruiken zullen zich aan bepaalde verplichtingen moeten houden, afhankelijk van het risiconiveau.

Bedrijven die AI met een hoog risico gebruiken, zullen waarschijnlijk worden verplicht om strenge risicobeoordelingen uit te voeren, hun activiteiten te registreren en gegevens beschikbaar te stellen aan autoriteiten om deze te controleren. Dit zal er overigens in resulteren dat de naleveringskosten voor bedrijven zullen toenemen. Als een bedrijf de regels overtreedt, is de boete naar waarschijnlijkheid ongeveer 30 miljoen euro of maximaal 6% van de wereldwijde winst.

Soortgelijke regels en ideeën zijn opgenomen in de onlangs voorgestelde EU Cyber Solidarity Act, nu overheidsfunctionarissen aanvallen op kritieke infrastructuur proberen voor te blijven.