Home / Macroambiente / Come i malintenzionati stanno sfruttando ChatGPT per il cybercrime

Come i malintenzionati stanno sfruttando ChatGPT per il cybercrime

chatgpt per il cybercrime

C'è chi ha chiesto a ChatGPT di scrivere il codice di malware e ransomware e chi il testo di una mail di phishing: non sono gli unici modi, però, in cui si può sfruttare l'AI generativa per compiere attacchi informatici.

Si può sfruttare ChatGPT per il cybercrime e, se sì, in che modo? È quello su cui gli esperti di sicurezza informatica si interrogano da diverse settimane, considerato il successo di pubblico che stanno attualmente vivendo il sistema di casa OpenAI e, più in generale, le intelligenze artificiali generative.

Tre possibili usi di ChatGPT per il cybercrime

Ufficialmente le policy1 di ChatGPT vietano di usare il sistema in maniera malevola, per creare malware o ransomware o contenuti e servizi destinati, per esempio, al dark web . Tenendo conto della possibilità che gli utenti violino le linee guida del servizio, da OpenAI hanno sviluppato appositi filtri per sventare i tentativi di utilizzare l’intelligenza artificiale di ChatGPT per scopi illeciti come quelli già citati.

Su diversi forum, però, esperti e appassionati di sicurezza informatica hanno già dimostrato come sia possibile – e nella maggior parte dei casi meno complicato del previsto, dal momento che non richiede conoscenze tecniche molto avanzate – aggirare questi filtri e, di fatto, sfruttare ChatGPT per il cybercrime.

È Check Point a descrivere più nel dettaglio come i criminali informatici potrebbero2 utilizzare a proprio vantaggio i sistemi di AI generativa sul modello di ChatGPT.

Un primo modo consiste nel far scrivere loro in linguaggio Python uno stealer. Si tratta, in termini più semplici, di un software capace di ricercare sulla macchina su cui è eseguito file delle tipologie più comuni, copiarli su una directory temporanea, comprimerli e condividerli in Rete, rendendoli disponibili quindi per soggetti terzi rispetto al proprietario originale.
Chi ha provato a farlo con ChatGPT e ha condiviso i risultati su uno dei già citati forum frequentati da esperti di sicurezza informatica ha raccontato di aver ottenuto uno stealer funzionante su almeno dodici tipologie di file diversi (immagini, PDF, documenti Office, eccetera) e di non avere conoscenze particolarmente avanzate di Python che lo abbiano aiutato al momento di istruire opportunamente l’intelligenza artificiale.

In alternativa c’è stato chi ha provato a far scrivere a ChatGPT uno script, ancora in Python, per crittografare e decrittografare dati che utilizzasse algoritmi crittografici dei più comuni come Blowfish e Twofish.

In entrambi i casi, sottolineano gli esperti di Check Point, gli utenti hanno chiesto a ChatGPT di scrivere in autonomia un pezzo di codice che, avendo applicazioni lecite in vari campi, concretamente non ne viola le policy né attiva gli appositi filtri. Conoscenze informatiche neanche troppo avanzate, come in parte già si accennava, sono risultate sufficienti per poter trasformare in un secondo momento quello stesso pezzo di codice in malware e ransomware intrusivi.

Anche la terza tecnica che permetterebbe di sfruttare ChatGPT per il cybercrime, per come descritta dagli esperti di Check Point, parte da una richiesta innocua da rivolgere all’AI generativa: scrivere del codice per API di terze parti capaci di ottenere le valutazioni aggiornate delle più comuni criptovalute ( bitcoin , Ethereum, eccetera).
Solo in un secondo momento si potrebbero sfruttare queste API, come hanno fatto altri utenti degli stessi forum, per dar vita sul dark web a marketplace su cui poter vendere ogni tipo di bene o servizio controverso, inclusi informazioni e dati personali oggetto di data breach e credenziali di carte di credito o digital wallet . Anche in questo caso al cybercriminale o aspirante tale non servono competenze informatiche particolarmente avanzate.

Le AI generative renderanno più facile compiere attacchi e reati informatici?

Una delle principali preoccupazioni degli esperti, non a caso, è che ChatGPT e altri sistemi simili rendano il cybercrime alla portata di molti più soggetti rispetto a quelli che oggi hanno competenze e strumenti per dedicarsi con successo a progettare e realizzare attacchi informatici di diversa natura e complessità.

È una preoccupazione acuita dal fatto che non tutti i sistemi che sfruttano intelligenza artificiale e machine learning per comporre automaticamente testi e altre tipologie di contenuti hanno filtri di sicurezza come quelli previsti da OpenAI per ChatGPT.

Se è vero poi che al momento alcune funzionalità avanzate di ChatGPT sono disponibili solo a pagamento, gli esempi forniti da Check Point mostrano chiaramente come sia possibile ottenere script e pezzi di codice malevoli, sfruttando quindi ChatGPT per il cybercrime anche a partire dalle funzionalità più elementari e gratuite.

Né si può ignorare che, se continueranno ad avere il successo di cui attualmente godono, i sistemi di AI generativa potrebbero diventare presto una sorta di “ commodity ” e, cioè, potrebbe aumentare il numero di quelli disponibili in versione gratuita e free in tutta la gamma delle loro funzioni.

Secondo alcuni esperti tra quelli che hanno analizzato le tendenze future in materia di sicurezza digitale, ChatGPT e altri servizi simili potrebbero entrare, insomma, nel novero di quelli che stanno contribuendo a trasformare il cybercrimine in una forma di «crime-as-a-service»3. L’espressione ne parafrasa un’altra: “software-as-a-service” o in acronimo SaaS, con cui da anni ci si riferisce a software e applicativi messi a disposizione dagli sviluppatori a utilizzatori anche di terze parti. La stessa allude al fatto che in un futuro – abbastanza prossimo – ci saranno sempre più attori, o servizi come nel caso di ChatGPT, da cui i soggetti intenzionati a portare a termine un attacco informatico potranno rifornirsi di strumenti, come malware o ransomware ma non solo, utili allo scopo.

Una delle obiezioni alla tesi secondo cui ChatGPT e gli altri sistemi di AI generativa sarebbero capaci di rendere chiunque – o quasi – un cybercriminale è che bisogna saper chiedere a ChatGPT e simili di scrivere il codice per uno stealer, uno script per crittografare e decrittografare dati, un ransomware. A seconda del tipo di istruzioni che ricevono e del modo in cui le ricevono, infatti, anche se avanzati e capaci di dare risposte molto più accurate di un tempo, i sistemi di intelligenza artificiale possono restituire risultati anche molto diversi.
In altre parole, bisognerà saper parlare con l’intelligenza artificiale per convincerla a essere concretamente d’aiuto nei propri piani (cyber)criminali. Non è detto, insomma, che tutti riescano a far scrivere a un’intelligenza artificiale il codice di un virus capace di intrufolarsi nei dispositivi target e copiare o distruggere i dati di proprio interesse.

Come sfruttare l’intelligenza artificiale di ChatGPT per il phishing e il social engineering

L’azione più semplice e, soprattutto, davvero alla portata di tutti è, attualmente, chiedere a un’intelligenza artificiale di scrivere il testo della mail che una banca manderebbe ai propri clienti nel caso in cui un errore rendesse necessario modificare i dati per accedere alla sezione home banking.
Uno dei modi più semplici di sfruttare ChatGPT per il cybercrime è, cioè, usarlo per progettare attacchi di phishing e spear phishing, in quanto tra le varie istruzioni da fornire all’intelligenza artificiale se ne possono includere di specifiche e riguardanti i singoli destinatari dell’attacco informatico. Non è un mistero che più dettagliati e personalizzati sono i messaggi “esca”, più risultano efficaci nel convincere la vittima a compiere azioni come cliccare su link sospetti o condividere informazioni riservate.

Come sottolinea tra gli altri Forbes, però, non è mancato chi ha già sfruttato4 le AI generative per mettere in piedi love scam e truffe alla Nigeriana. In altri termini, è stato richiesto all’intelligenza artificiale di impersonare ora un partner conosciuto in Rete e che in un momento di difficoltà ha bisogno di essere aiutato economicamente, ora il legale di un parente lontano morto e che ha destinato l’eredità alla vittima; in entrambi i casi la capacità di questi sistemi di simulare un linguaggio umano e naturale può risultare piuttosto convincente, specie se si scelgono le vittime che non abbiano grande familiarità con gli ambienti digitali.

Tra le possibili applicazioni di ChatGPT per il cybercrime ce ne sono, infine, numerose legate al social engineering, capaci di sfruttare una serie di gusti e abitudini digitali del soggetto target. Infatti, non solo ogni giorno si compiono in Rete azioni poco avvedute sul piano della sicurezza digitale, ma soprattutto, attraverso le proprie attività e sotto forma di small data, si lascia traccia di indizi, abitudini e azioni con il rischio di aumentare le probabilità che si “caschi” nella trappola dei criminali informatici, non accorgendosi che quella che si sta avendo è una conversazione con un’intelligenza artificiale e non con una persona umana e che si conosce.

Note
  1. OpenAI
  2. Check Point
  3. Cyber Security Hub
  4. Forbes

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI