Door: Redactie - 18 september 2023 |
In de hedendaagse technologische arena zie je dat generatieve Artificiële Intelligentie (AI) zijn intrede doet met een stormachtige snelheid. Maar wat is generatieve AI precies? Welke betekenis kunnen we eraan toekennen en waarom zien we dat zelfs cybercriminelen het potentieel ervan verkennen?
Generatieve AI is een specialisatie binnen de brede AI-spectrum dat zich richt op het creëren van iets nieuws. Of je nu denkt aan unieke teksten, inventieve afbeeldingen of zelfs aan innovatieve muzikale composities; generatieve AI heeft de capaciteit om dit alles te genereren. Wanneer je je verdiept in de betekenis van generatieve AI, kom je al snel tot de conclusie dat deze technologie de grenzen van creativiteit verlegt en een nieuwe norm stelt voor automatisering.
Je zou het wellicht niet meteen verwachten, maar cybercriminelen tonen ook een groeiende interesse in deze technologie. Een treffend voorbeeld hiervan is hoe de tool ChatGPT het internet veroverde eind 2022. De teksten geproduceerd door deze tool zijn in veel gevallen bijna niet te onderscheiden van door mensen geschreven teksten.
Dit geeft cybercriminelen nieuwe mogelijkheden. Minder ervaren hackers krijgen bijvoorbeeld door generatieve AI toegang tot de rijke databanken van zogenoemde ‘large language models’ (LLM’s). Deze LLM’s bieden een overvloed aan programmeercodes, waarmee de technische vaardigheden van deze hackers aanzienlijk worden verbeterd.
Daarnaast, met de voortgang van LLM’s, kunnen cybercriminelen nu nauwkeurigere phishing-berichten produceren, vrij van spelling- en grammaticafouten. Uit een recent onderzoek van Darktrace is gebleken dat sinds de opkomst van ChatGPT, de linguïstische complexiteit van phishing-mails met 17% is gestegen. Bovendien neemt de focus op zogenaamde spearphishing-berichten toe, waarbij berichten gericht zijn op specifieke individuen, vaak met een hoge positie binnen organisaties.
Generatieve AI kan ook indrukwekkende videobeelden en stemgeluid genereren. Deze toepassing, hoewel baanbrekend, kan potentiële veiligheidsuitdagingen met zich meebrengen. Er is bijvoorbeeld een groeiende bezorgdheid over ‘deepfakes’. Deze kunnen biometrische veiligheidssystemen misleiden die gebruik maken van unieke fysieke eigenschappen, zoals vingerafdrukken of gezichtsherkenning, om een persoon te identificeren. Een journalist slaagde er bijvoorbeeld in toegang te krijgen tot zijn bankinformatie door een AI-versie van zijn stem te gebruiken. PennState University heeft aangetoond dat sommige biometrische systemen niet zijn voorbereid op de geavanceerde deepfake-technologie.
Ondanks de duidelijke risico’s, tonen bedrijven verrassend genoeg een gematigde bezorgdheid over generatieve AI. Uit een studie van ABN AMRO blijkt dat bijna een derde (29%) van de ondervraagde bedrijven deze technologische vooruitgang niet als een directe bedreiging ziet voor hun cyberveiligheid.
Dit artikel delen op je eigen website? Geen probleem, dat mag. Meer informatie.