Makers populaire chatbot bezorgd over propaganda en hackrisico's
De chatbot met kunstmatige intelligentie ChatGPT gooit de afgelopen weken hoge ogen, maar vormt ook risico's. Propaganda en cyberaanvallen behoren tot de gevaren, waarschuwen experts en ChatGPT-maker OpenAI zelf.
ChatGPT is de meest indrukwekkende chatbot tot nu toe. Officieel is het een taalmodel: kunstmatige intelligentie die na 'bestuderen' van onze taal op dezelfde manier kan reageren. Stel een vraag of opdracht in normale taal en ChatGPT geeft uitgebreid antwoord, of het schrijft bijvoorbeeld een volledige sollicitatiebrief op maat – of een nieuwsartikel.
In die mogelijkheden schuilt echter ook gevaar, waarschuwt maker OpenAI zelf. "Ons eindoordeel is dat taalmodellen nuttig zullen zijn voor makers van propaganda, waardoor ze waarschijnlijk beïnvloedingsoperaties kunnen verbeteren", schrijven de onderzoekers. Het zou immers goedkoper worden om propaganda te maken, die ook nog eens foutlozer en overtuigender geschreven wordt door ChatGPT.
Ook wordt het moeilijker om propaganda op te sporen: nu gaan vaak dezelfde teksten rond, ChatGPT kan telkens weer een nieuwe tekst genereren.
Ook hackers kunnen profiteren
Een ander gevaar schuilt op het gebied van cyberveiligheid, waarschuwt onder andere cyberveiligheidsbedrijf Check Point. Zij zien op hackersfora nu al een groeiende interesse in het maken van malware via kunstmatige intelligentie. Zeker minder ervaren hackers zouden via AI makkelijker en beter malware kunnen maken. ChatGPT kan ook daar helpen met meer overtuigende teksten, bijvoorbeeld een nepmailtje van een bank.
En zelfs bij het programmeren van malware kan ChatGPT helpen, schrijft Check Point. "Dit zou kunnen betekenen dat potentiële cybercriminelen die weinig tot geen ontwikkelingsvaardigheden hebben, ChatGPT kunnen gebruiken om kwaadaardige tools te ontwikkelen en een volwaardige cybercrimineel met technische capaciteiten te kunnen worden", aldus Check Point.
"Het is nu redelijk om aan te nemen dat elke nieuwe communicatie die je ontvangt, mogelijk is geschreven met behulp van een robot", zegt Andy Patel, inlichtingenonderzoeker van cyberveiligheidsbedrijf WithSecure.
Mes snijdt aan twee kanten
Het is echter niet alleen slecht nieuws. Op termijn zal kunstmatige intelligentie ook gebruikt kunnen worden om cyberdreigingen af te slaan, zegt Kyle Hanslovan van beveiligingsbedrijf Huntress tegen Bloomberg. Er zitten volgens Hanslovan "beperkingen" aan de mogelijkheden van ChatGPT. Hij verwacht geen geavanceerde nieuwe hacks van de AI, "omdat het de creativiteit en finesse niet heeft" van een menselijke hacker. Uiteindelijk zal de defensieve partij door ChatGPT een voordeel hebben ten opzichte van de hacker, denkt de expert.
ChatGPT zou bijvoorbeeld wel beter en vooral sneller zijn in het uitpluizen van bestaande programmeertaal, stelt Juan Andres Guerrero-Saade, topman van cyberveiligheidsbedrijf SentinelOne. ChatGPT zou in de toekomst malware 'uit elkaar' kunnen halen, om zo de zwakke plekken te ontdekken.
"En zoveel malware-analisten zijn er niet in de wereld", aldus Guerrero-Saade. "Dus hiermee neemt de bezetting flink toe." Dan gaat het echter vooral om de cyberdreigingen als gevolg van kunstmatige intelligentie. Propaganda en desinformatie zijn moeilijker te herkennen en makkelijker te maken. En OpenAI geeft in zijn onderzoek toe dat voor die gevolgen nog geen tegenmaatregelen bedacht zijn.
Luister ook de Bright Podcast:
<iframe allow="autoplay *; encrypted-media *; fullscreen *; clipboard-write" frameBorder="0" height="175" style="width:100%;max-width:660px;overflow:hidden;background:transparent" sandbox="allow-forms allow-popups allow-same-origin allow-scripts allow-storage-access-by-user-activation allow-top-navigation-by-user-activation"></iframe>