Sviluppo sicuro dei sistemi AI, arrivano le Linee Guida internazionali
Non si ferma la corsa alla regolamentazione dell’Intelligenza Artificiale: dopo la recente pubblicazione del relativo standard ISO e una prima approvazione dell’AI Act europeo, un nuovo importante tassello è rappresentato dalle “Guidelines for secure AI system development”.
Origini e scopi delle Guidelines
Le Linee Guida sono state messe a punto dal National Cyber Security Centre (NCSC) del Regno Unito e dall’US Cybersecurity and Infrastructure Security Agency (CISA) in collaborazione con una lunga serie di partner internazionali, tra cui figura anche l’Agenzia per la Cybersicurezza Nazionale italiana (ACN).
Hanno poi contribuito alla stesura grandi aziende tech del calibro di Google, IBM, Microsoft e OpenAI, oltre a diverse fondazioni ed enti di ricerca.
Il risultato è un documento che sintetizza l’attuale stato dell’arte e fissa alcune regole generali per lo sviluppo dei futuri strumenti basati sull’Intelligenza Artificiale, al fine di garantire che tali sistemi siano “developed, deployed and operated in a secure and responsible way”.
La sicurezza come priorità
Il testo è articolato in quattro sezioni, ciascuna delle quali rivolta a uno specifico passaggio entro il ciclo di vita dei sistemi AI:
- Secure design – la prima sezione, dedicata alla fase di progettazione e alle attività di threat modelling che devono affiancarla, raccomanda di scegliere attentamente i modelli AI impiegati e di promuovere una piena staff awareness al riguardo, perseguendo la massima visibilità delle minacce per poter gestire al meglio i relativi rischi;
- Secure development – la seconda parte si focalizza sullo sviluppo vero e proprio dei sistemi ed evidenzia la necessità di valutare attentamente gli aspetti relativi agli accessi, includendo sempre le potenziali vulnerabilità a livello di supply chain security;
- Secure deployment – la terza sezione guarda alla fase di rilascio degli strumenti sul mercato, durante la quale si consiglia di dare la giusta importanza alla protezione delle infrastrutture coinvolte e di pianificare adeguati processi di incident management;
- Secure operation and maintenance – la quarta e ultima sezione, le cui previsioni di applicano allo stadio operativo, cita le attività di “monitoring, update management and information sharing” successive al rilascio dei sistemi, insieme alla necessità di condividere con i propri utenti nonché con altri attori (tecnologici, accademici, governativi) ogni informazione o best practice utile a garantire un uso sicuro dei prodotti.
Muovendo dal presupposto dichiarato per cui “Cyber security is a necessary precondition for the safety, resilience, privacy, fairness, efficacy and reliability of AI systems”, è quindi evidente come le nuove regole considerino la sicurezza informatica un’istanza imprescindibile per il futuro degli ambienti AI/ML.
I destinatari delle Linee Guida: providers e stakeholders
Nel testo si sottolinea che, sebbene ogni innovazione tecnologica porti sempre con sé alcuni pericoli, oggi i sistemi basati sull’Intelligenza Artificiale fronteggiano minacce specifiche e sofisticate: è il caso dell’Adversarial Machine Learning (AML) o del “Data Poisoning”, entrambi citati a titolo di rischi da non sottovalutare.
Inoltre – nonostante il sottotitolo sia “Guidelines for providers of any systems that use artificial intelligence” – sin dall’Introduzione si specifica di non volersi rivolgere esclusivamente ai fornitori di servizi ma anche a tutti gli ulteriori stakeholders coinvolti, così evidenziando la complessità di regolamentare processi che vedono, l’avvicendarsi di innumerevoli soggetti attraverso le varie fasi tecniche e commerciali.
Di conseguenza le Linee Guida scelgono un approccio volutamente generale, raccomandando misure di “buon senso” come la valutazione accurata e la mitigazione in concreto dei rischi informatici; tutto al fine di garantire che, tanto per le organizzazioni quanto per la società civile, il potenziale dirompente dei sistemi AI non finisca per essere vanificato da vulnerabilità, errori o mancanze nella sicurezza dei relativi processi.
A cura della Redazione