ChatGPT, possibile strumento per i cyber criminali
Quali rischi possono derivare da un uso con finalità criminali di ChatGPT? Netskope Threat Labs ne ha valutato i rischi evidenziando il suo potenziale di utilizzo dannoso. Attraverso alcuni test, il team di Netskope ha scoperto che strumenti come ChatGPT possono potenzialmente favorire lo sviluppo di malware e migliorare gli attacchi di ingegneria sociale, nonostante gli avvertimenti e i deterrenti etici integrati nella piattaforma. I ricercatori affermano che ChatGPT potrebbe ridurre significativamente la barriera d’ingresso per i criminali informatici che vogliano sferrare i loro attacchi, fornendo dinamicamente risorse utilizzabili per scopi illeciti, come testi di phishing o pezzi di codice malevolo.
Una delle minacce rappresentate da questo strumento di intelligenza artificiale è il suo potenziale nell’insegnare ai programmatori alle prime armi come codificare e sviluppare malware, a condizione che il richiedente abbia accesso alle domande giuste e sia in grado di applicare successivamente le conoscenze acquisite.
Per dimostrarne la pericolosità, Netskope Threat Labs ha chiesto a ChatGPT di esemplificare alcune tecniche comunemente utilizzate nel malware, come il process injection, il rilevamento di macchine virtuali, il download di file esterni, l’accesso remoto e persino la crittografia dei file, tecniche che potrebbero essere di aiuto per creare ransomware. Lo strumento è stato in grado di generare esempi di codice utilizzando diversi linguaggi di programmazione, come C++, Python e ASM, e di spiegarne il funzionamento. ChatGPT è stato inoltre capace di rispondere a semplici domande sul coding e di elaborare esercizi per testare le conoscenze dell’utente.
Nonostante queste preoccupanti scoperte, i ricercatori chiariscono che ChatGPT non costituisce ancora il modo più semplice – o più rapido- per apprendere e sviluppare codice malevolo.
Gustavo Palazolo, ricercatore presso Netskope Threat Labs, spiega: “ChatGPT non può scrivere da zero un malware nuovo o funzionale. Lo strumento può essere piuttosto utilizzato come risorsa per studiare e creare frammenti di codice che, combinati, potrebbero essere utilizzati per la creazione di malware. Tuttavia, ciò richiede un certo livello di conoscenza da parte dell’utente. In genere i principianti creano nuovi malware copiando e modificando il codice esistente invece di scriverlo da zero, il che è probabilmente meno dispendioso in termini di tempo rispetto all’elusione delle misure di sicurezza di ChatGPT e alla necessità di combinare e adattare pezzi di codice.”
“Un rischio più preoccupante associato a ChatGPT è il suo potenziale di ridurre la barriera d’ingresso per i criminali informatici che intendono sferrare attacchi di ingegneria sociale. Ad esempio, nonostante gli avvertimenti, lo strumento potrebbe essere sfruttato per redigere e-mail di phishing convincenti nel tentativo di sottrarre informazioni sensibili o di indurre le vittime ad aprire file allegati. Gli attaccanti potrebbero inoltre abusare di ChatGPT per creare fake news, reindirizzando le vittime verso siti web che tentano di rubare dati sensibili, come e-mail o conti bancari. Si tratta di capacità potenzialmente dirompenti per il settore della sicurezza informatica, che potrebbero modificare la dimensione e la frequenza degli attacchi”.
Palazolo raccomanda alle aziende e ai privati di rimanere vigili nei confronti delle minacce quando utilizzano lo strumento.
“Gli attacchi di social engineering rappresentano un rischio elevato e persistente per le organizzazioni, anche senza IA, e sono cresciuti dall’inizio della pandemia. La maggior parte della forza lavoro opera ancora da remoto e le persone hanno cambiato il loro concetto di fiducia nei confronti del digitale (digital trust): hanno abbassato la loro storica diffidenza nei confronti delle soluzioni digitali e adottato strumenti di collaborazione online per l’interazione La disponibilità di uno strumento di intelligenza artificiale in grado di imitare il comportamento umano rende questo rischio ancora più grande, quindi, è importante che le organizzazioni ricostruiscano il “firewall umano”, addestrando dipendenti e clienti a individuare i piccoli indizi, come i dettagli fuori luogo nelle e-mail di phishing, e per verificare sempre l’identità della persona con cui stanno parlando.”
“Per fortuna, i nuovi vettori di attacco che potremmo vedere sviluppati dall’IA possono essere ampiamente affrontati mantenendo una postura di sicurezza efficace. Ciò include mantenere il software aggiornato e con le patch installate, mantenere policy e tecnologie di protezione dei dati efficaci e dotare le risorse più preziose dell’organizzazione di software di sicurezza aggiuntivi come una soluzione Zero Trust, continuando a mantenere una cultura di vigilanza.”
Sebbene ChatGPT possa essere sfruttato dagli attaccanti in diversi modi, è importante ricordare che l’intelligenza artificiale non è solo un’arma nelle mani degli attaccanti, ma anche uno strumento prezioso per chi difende, sia per individuare vulnerabilità nel codice che valutare il livello di sicurezza generale.
A cura del Netskope Threat Labs