Sistemi di Intelligenza Artificiale e Machine Learning: rischi, vulnerabilità e strategie di difesa – Tavola Rotonda

Alla Tavola Rotonda tenutasi durante la 12a edizione della Cyber Crime Conference, cha ha chiuso la prima giornata di evento, sono intervenuti:

  • Stefano Bistarelli, Professor of Computer Science at the Department of Mathematics and Computer Science at the University of Perugia
  • Gian Luca Foresti, Professore di Cybersecurity e Computer Vision, Direttore del Master in Intelligence and Emerging Technologies, Università di Udine
  • Marco Mellia, Professore presso il Dipartimento di Automatica e Informatica, Politecnico di Torino (DAUIN)
  • Angelo Spognardi, Professore associato presso il Dipartimento di Informatica dell’Università Sapienza di Roma
  • Gianni Amato, Senior Security reasearch at the CERT for the Digital Italy Agency (CERT-AgID), in veste di moderatore del panel.

La seconda Tavola Rotonda della Cyber Crime Conference 2024 ha discusso il ruolo centrale dell’Intelligenza Artificiale nel contesto della sicurezza informatica.

I partecipanti hanno analizzato vari aspetti legati all’impiego dell’IA per identificare e contrastare le minacce informatiche, affrontando temi di grande attualità: dalle tipologie di attacco più comuni all’importanza dell’addestramento dei modelli, fino alle differenze rispetto ad altri campi di applicazione dell’IA o alla persistente necessità di individuare il giusto equilibrio tra privacy e sicurezza.

Guarda il video completo della Tavola Rotonda:

Attacchi più comuni all’intelligenza artificiale

Il prof. Bistarelli ha illustrato alcune tecniche frequentemente usate dai cyber criminali contro gli strumenti IA, citando un recente report del NIST e menzionando quattro tipi di attacchi: data poisoning, evasion, model inversion, membership inference.

Questi attacchi avvengono durante la fase di addestramento o di utilizzo dei sistemi di IA, con l’obiettivo di comprometterne le prestazioni o di violare la privacy degli utenti.

Importanza dell’addestramento dei modelli di intelligenza artificiale

Il prof. Foresti ha sottolineato l’importanza cruciale dell’addestramento dei modelli di IA, distinguendo tra approcci supervisionati e non supervisionati.

Se infatti l’addestramento supervisionato, che richiede grandi quantità di dati “etichettati”, può essere limitato nella capacità di identificare nuove minacce, l’approccio non supervisionato permette invece di rilevare anche eventuali anomalie future; ma d’altro canto presenta numerose sfide in termini di complessità, nonché di bilanciamento dei set di dati utilizzati.

Strategie innovative per l’addestramento dei modelli di IA

Il prof. Mellia ha illustrato alcune strategie innovative per l’addestramento dei modelli di IA, tra cui l’anticipazione di comportamenti malevoli attraverso sistemi generativi e l’utilizzo di pochi esempi per aiutare i modelli a “specializzarsi” in settori specifici (few-shot learning).

Nel corso dell’intervento sono state sottolineate anche le differenze rispetto ad altri campi di applicazione dell’IA: come ad esempio la disponibilità limitata di dati malevoli o, inevitabilmente, la natura non collaborativa degli avversari.

Sicurezza, privacy e consapevolezza nell’utilizzo dell’IA

Il prof. Spognardi ha messo in guardia la platea rispetto all’illusione di avere già risolto tutti gli aspetti problematici: ribadendo come ci sia ancora molto da fare in termini di comprensione dei modelli IA, ha quindi sottolineato l’importanza di essere consapevoli dei limiti e dei potenziali rischi di questi strumenti.

I partecipanti hanno poi affrontato il tema del giusto equilibrio tra sicurezza e privacy da perseguire nell’impiego dell’Intelligenza Artificiale, soffermandosi sulla necessità di garantire trasparenza e adeguata tutela ai dati personali coinvolti.

Collaborazione internazionale e interdisciplinare

I professori hanno concordato sull’importanza della collaborazione internazionale e interdisciplinare per mitigare i rischi legati agli attacchi all’IA, citando esempi di ricerche condotte a livello globale ed evidenziando la necessità di condividere idee, strumenti e risultati per migliorare la robustezza dei sistemi IA.

È emersa, tuttavia, anche la consapevolezza delle rilevanti differenze che esistono tra diverse regioni del mondo in termini di avanzamento tecnologico e di investimenti finanziari dedicati.

Ottimismo e sfide future nell’utilizzo dell’IA per la sicurezza informatica

Il dibattito finale ha espresso un cauto ottimismo riguardo ai progressi dell’IA nella sicurezza informatica, pur riconoscendo le numerose sfide e le aree di ricerca ancora aperte.

In particolare è stata citata l’utilità dell’IA per migliorare gli strumenti di difesa, oltre all’opportunità di promuovere forme di collaborazione internazionale e interdisciplinare tese a condividere risultati e best practice.

Di contro si è evidenziata l’urgenza di affrontare questioni ancora irrisolte, come l’anticipazione di comportamenti malevoli o il necessario bilanciamento tra privacy e sicurezza.

In conclusione, tutti i relatori hanno condiviso alcune riflessioni sui prossimi passi da compiere: rafforzare la comprensione dei modelli IA, favorire un utilizzo più responsabile dei relativi strumenti e portare avanti la ricerca su aspetti cruciali ma troppo poco noti, come la disponibilità di dati adeguati o la robustezza dei sistemi basati sull’Intelligenza Artificiale.

Il programma completo della Cyber Crime Conference 2024 è disponibile al seguente link: https://www.ictsecuritymagazine.com/eventi/cybercrimeconference2024#programma

Iscriviti alla nostra newsletter per rimanere aggiornate sulle nostre iniziative: https://www.ictsecuritymagazine.com/newsletter/

Condividi sui Social Network:

Articoli simili