GenAI, Generative Artificial Intelligence: framework di sicurezza, gestione rischi AI, governance sistemi GenAI, protezione dati, Machine Learning, Large Language Models, analisi vulnerabilità, mitigazione rischi AI

Generative Artificial Intelligence (GenAI): Analisi completa di rischi, sicurezza e governance dei sistemi AI

Questo articolo è il primo di una serie dedicata all’esplorazione approfondita della Generative Artificial Intelligence (GenAI) nel 2024. In un momento in cui l’AI generativa sta superando il “Peak of Inflated Expectations”, questa serie analizza criticamente punti di forza, vulnerabilità e contromisure necessarie per implementazioni sicure e affidabili. L’articolo offre una panoramica strutturata che spazia dalla governance alla sicurezza, dall’analisi dei rischi alle metodologie di mitigazione, con particolare attenzione ai sistemi critici dove l’affidabilità rappresenta un fattore essenziale.

Generative Artificial Intelligence nel 2024: Oltre il Peak of Inflated Expectations

Il 2024 è l’anno in cui la Generative Artificial Intelligence (GenAI) supera la fase di “Peak of Inflated Expectations” (vd. il modello Hype Cycle di Gartner), ogni giorno vengono progettati, sviluppati e rilasciati sistemi di AI per qualsiasi ambito e applicazione; perciò, possiamo tranquillamente suddividere il mondo dei fruitori dell’AI in tre categorie: 1) quelli che la impiegano in maniera proattiva, 2) coloro che la governano e, infine, 3) chi la subisce.

Come accade per tutte le innovazioni, anche la GenAI avrà il suo “Trough of Disillusionment” poiché, da un lato, le aspettative degli utenti sono ancora molto elevate e, dall’altro, l’implementazione non sarà in grado di raggiungere i risultati sperati, sia in termini di performance, che di ROI. Per ridurre questo impatto negativo, che immancabilmente si genererà sugli stakeholders, è opportuno conoscere e studiare non solo i punti di forza dell’AI, ma anche le fragilità e le vulnerabilità che sono ancora presenti. Questo approccio consentirà di creare e utilizzare prodotti e servizi dell’AI “Safe, Secure and Trustworthy”.

In altri termini, l’aumento di volume e complessità dei progetti basati sull’intelligenza artificiale fa entrare in gioco variabili che inizialmente non erano state considerate, come accade per tutte le innovazioni tecnologiche, causando un disallineamento tra i risultati attesi e quelli reali; quindi, occorre prestare sempre più attenzione alla governance, ai rischi, all’ownership, alla sicurezza e ai relativi metodi di mitigazione per ridurre questo divario.

Machine Learning e GenAI: fragilità e rischi emergenti nei Large Language Models

In particolare, lo sviluppo di definizioni adeguate alla sicurezza e alla protezione dei sistemi basati sull’intelligenza artificiale, tra cui i modelli che sfruttano le reti neurali come il Machine Learning (ML) e la Generative Artificial Intelligence (GenAI), vive una fase iniziale di entusiasmo, dovuta al desiderio di essere i primi a uscire sul mercato, in cui è facile trascurare le fragilità e le vulnerabilità che rendono questi modelli suscettibili di errori, violazioni della confidenzialità e altri tipi di difetti o anomalie.

In realtà, le fragilità e le vulnerabilità del ML e del GenAI, tra cui i Large Language Models (LLM), generano rischi con caratteristiche diverse da quelle tipicamente considerate nell’analisi del software o della sicurezza informatica, pertanto, le fasi di progettazione e valutazione dei sistemi basati sull’intelligenza artificiale, e dei relativi workflow, meritano un’attenzione speciale.

In particolare, lo sviluppo di definizioni adeguate alla sicurezza e alla protezione dei sistemi basati sull’intelligenza artificiale rappresenta una sfida significativa nell’ambito della progettazione e della valutazione dei sistemi. Se considerassimo il ruolo dell’intelligenza artificiale in domini applicativi critici, in cui la mission è incentrata sull’efficacia, la sicurezza, la protezione e la resilienza del sistema, questa minaccia si amplificherebbe. A riguardo vedasi le raccomandazioni del “NIST Artificial Intelligence Risk Management Framework (RMF)[1] e “NIST Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile[2] per individuare, mitigare e gestire i rischi connessi.

AI Risk Management Framework (fonte: NIST.gov)

Struttura dell’analisi sulla sicurezza della Generative Artificial Intelligence

Questo testo si concentra sull’intelligenza artificiale applicata ai sistemi critici in cui l’affidabilità, basata su evidenze verificabili, rappresenta il fattore essenziale per il consenso operativo.

L’analisi dell’argomento si sviluppa in sei parti:

  • La prima parte spiega i concetti fondamentali e il funzionamento dell’Intelligenza Artificiale Generativa (GenAI) e presenta i vantaggi, le sfide, le limitazioni e i rischi che si porta dietro.
  • La seconda parte introduce il problema della sicurezza e della protezione dell’AI e prova a rispondere alle seguenti domande: perché è difficile garantire la sicurezza e la protezione dell’AI? quali sono i concetti di sicurezza e protezione specifici per l’intelligenza artificiale basata sulle reti neurali? quali sono le sfide dell’intelligenza artificiale nello sviluppo di sistemi sicuri e protetti? quali sono i limiti di affidabilità e perché questi limiti sono fondamentali?
  • La terza parte affronta il problema della confidenzialità, dell’integrità e della governance dei sistemi di AI e tenta di rispondere alle seguenti domande: quali sono i rischi specifici dell’intelligenza artificiale – inclusi quelli associati alla confidenzialità, integrità e governance – con e senza avversari? quali sono le superfici di attacco e quali tipi di mitigazioni sono in fase di sviluppo e impiego per ridurre queste criticità?
  • La quarta parte approfondisce il rischio dell’AI e prova a rispondere alle seguenti domande: come possiamo definire la fase di Test and Evaluation (T&E) specifica per l’intelligenza artificiale? È possibile elaborare un framework di risk management per l’intelligenza artificiale? la progettazione dell’AI può affrontare le sfide a breve termine e, a riguardo, come è possibile sfruttare le opportunità dell’ingegneria del software e della sicurezza informatica?
  • La quinta parte illustra due case study riguardanti le principali minacce che affliggono i Large Language Models: i bias e il data poisoning; in particolare, un metodo per realizzare l’auditing dei bias e una serie di raccomandazioni per eliminare i dati errati (compresi i bias) da un data set di ML. Inoltre, vengono indicate una serie di raccomandazioni per misurare e rendere affidabile un sistema di intelligenza artificiale.
  • La sesta parte esamina i nuovi modelli di AI e tenta di rispondere alle seguenti domande: quali sono i vantaggi nel guardare oltre i modelli basati sulle reti puramente neurali dell’AI moderna verso approcci ibridi? quali sono gli esempi attuali che illustrano i vantaggi potenziali e in che modo questi approcci possono consentire di andare oltre i limiti dell’AI attuale? quali sono le prospettive nel breve e nel lungo periodo?

Nel prossimo articolo della serie, approfondiremo i fondamenti della Generative Artificial Intelligence, esplorando nel dettaglio i suoi meccanismi operativi, le architetture sottostanti e le metodologie di funzionamento. Analizzeremo come i sistemi GenAI generano contenuti, le tecnologie chiave che li alimentano e le implicazioni pratiche del loro utilizzo in diversi contesti applicativi. Per approfondire tutti questi temi è possibile scaricare il white paper completo “Generative Artificial Intelligence: punti di forza, rischi e contromisure”.

Note bibliografiche

[1] Artificial Intelligence Risk Management Framework (RMF), https://www.nist.gov/itl/ai-risk-management-framework

[2] Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf

Profilo Autore

È laureato in Ingegneria Informatica ed in Sicurezza Informatica presso le Università di Roma La Sapienza e di Milano. Ha indirizzato la sua formazione nei settori della Cyber Security e Digital Forensics ottenendo i diplomi di perfezionamento in Data Protection e Data Governance; Criminalità Informatica e Investigazioni Digitali e Big Data, Artificial Intelligence.

Ha, altresì, conseguito l’Advanced Cybersecurity Graduate Certificate alla School of Engineering della Stanford University; Professional Certificates in Information Security; Incident Response Process; Digital Forensics e Cybersecurity Engineering and Software Assurance presso il Software Engineering Institute della Carnegie Mellon University.

Dal 1992 è nei ruoli del Ministero dell’Interno ove ricopre lincarico di Funzionario alla Sicurezza CIS. In tale veste contribuisce alla valutazione dei rischi cyber, all’implementazione delle misure di sicurezza e la risoluzione di incidenti informatici. Inoltre, offre consulenza tecnica nel campo della Digital Forensics per l’Autorità giudiziaria, la Polizia giudiziaria e gli Studi legali.

Dal 2017 è Professore a contratto di Tecnologie per la Sicurezza Informatica presso alcune Università ove sviluppa le tematiche di Attack and Defense Strategies quali il penetration testing, la risk analysis, l’information security assessment, l’incident response e la digital forensics. Infine, è Autore di alcuni articoli e saggi sui temi della Sicurezza Informatica e
dell’Informatica Giuridica consultabili su https://www.vincenzocalabro.it

Condividi sui Social Network:

Ultimi Articoli