'AI ChatGPT maakt eerste kwaadaardige tools voor criminelen'

Onderzoekers van Check Point Research hebben meerdere voorbeelden online gevonden van hackers die een criminele tool hebben laten schrijven door middel van de OpenAI-chatbot ChatGPT. Onder meer 'infostealers, coderingstools en manieren om fraudeactiviteiten te faciliteren' werden dankzij het neurale netwerk toegankelijker gemaakt. Voor meer context: CPR deelde eerder in een interview met Hardware Info verschillende manieren om je te wapenen tegen dergelijke cyberaanvallen.

Check Point vond enkele hackers die ChatGPT scripts en programma's lieten schrijven, uiteraard met kwade intenties. Zo werd er op een hackersforum een ransomwaretool gedeeld om systemen te versleutelen en werd op datzelfde forum het codeerproces voor een infostealer gepubliceerd. De cyberbeveiligingsonderzoekers stellen: "Cybercriminelen vinden ChatGPT aantrekkelijk. De afgelopen weken zien we aanwijzingen dat hackers het beginnen te gebruiken om kwaadaardige code te schrijven. ChatGPT heeft de potentie om het proces voor hackers te versnellen door ze een goed startpunt te geven."

Tot dusver zouden de tools nog vrij eenvoudig in elkaar steken; het zou duidelijk om vrij rudimentaire technieken gaan. Desalniettemin is het een gemakkelijke manier voor niet zo ervaren cybercriminelen om meer inzicht te krijgen in wat wel en niet zou kunnen werken. Wat Check Point overigens niet benadrukt, is dat IT'ers dezelfde AI ook kunnen gebruiken om zelf manieren van bescherming tegen dergelijke aanvallen te generen.

Het idee achter ChatGPT is om een algemene AI te creëren die je alles kunt vragen; iets wat verdomd aardig werkt met de betreffende tool. De keerzijde is dat dit ook voor kwaadaardige doeleinden gebruikt kan worden. In sommige gevallen is het relatief onschuldig, bijvoorbeeld wanneer scholieren de AI gebruiken om huiswerk te maken. 

« Vorig bericht Volgend bericht »
0