Declinazioni applicative del progetto europeo sull’Intelligenza Artificiale secondo il Libro Bianco della Commissione UE
Il 19 maggio scade il termine della pubblica consultazione lanciata dalla Commissione UE nei confronti di Stati Membri (SM), Istituzioni Europee e altri Stakeholder (i.e. Industria, Partner Sociali, Organizzazioni della società civile, Ricercatori, Settore pubblico e qualsivoglia altra Parte interessata) finalizzata a farle pervenire proposte e commenti al Libro Bianco 19.2.2020 dedicato allo sviluppo e utilizzo dell’Intelligenza Artificiale (i.e. Libro Bianco UE Sull’Intelligenza Artificiale – Un Approccio Europeo verso l’eccellenza e la fiducia – DOC COM (2020) 65 final[1]) da applicarsi a tutti i principali settori merceologici rilevanti per l’economia europea, in continuità con la Strategia Europea per l’Intelligenza Artificiale (anche solo IA) già presentata dalla Commissione nell’Aprile 2018 (i.e. IA per l’Europa – DOC COM (2018) 237 final) con l’obiettivo di preservare la leadership tecnologica dell’UE nel confronto con altre potenze mondiali già posizionate nell’economia dei dati e che investono nei relativi applicativi (principalmente USA, CINA, Corea, Giappone e India)[2]; al contempo garantendo che le nuove tecnologie e la digitalizzazione siano al servizio di tutti i cittadini europei, con declinazioni finalizzate a migliorarne lo standard di vita, nel rispetto di specifici standard di sicurezza e di un quadro regolamentare armonizzato per la tutela dei loro diritti e libertà fondamentali (quali la dignità umana, la non discriminazione, la tutela dei dati personali), senza peraltro trascurare l’impatto ambientale dello sviluppo dei sistemi IA durante tutto il loro ciclo di vita ed anche in relazione alla relativa catena di fornitura[3] (si pensi ad es. all’uso delle risorse per la formazione degli algoritmi ed all’archiviazione dei dati). Con il Libro Bianco la Commissione UE intende proseguire nel campo dei fondamenti algoritmici dell’IA, con coinvolgimento e supporto delle proprie eccellenze scientifiche e ricorso a sinergie tra discipline che attualmente si sviluppano e progrediscono separatamente: si pensi ad es. alle tecniche di apprendimento automatico e profondo (rispettivamente c.d. machine learning e deep learning) e agli approcci seguiti nel ragionamento simbolico.
1. Intelligenza Artificiale (IA) – concetto e definizioni
L’IA è una delle più importanti applicazioni dell’economia dei dati, i cui sviluppi in alcuni settori fondamentali della società (Sanità, Agricoltura, Trasporti, Industria di processo e di prodotto, Servizi, Pubblica Amministrazione, Internet delle cose, Robotica, Aerospaziale, Finanza, Internet delle cose, Smart cities ecc.) sono destinati nel prossimo futuro ad essere sempre più rapidi e a forte impatto sul nostro stile di vita e nella società.
Se infatti la maggior parte dei dati trattati digitalmente oggi attiene al mondo dei consumatori e viene processata e gestita con infrastrutture centralizzate, nei prossimi anni si stima che molti più dati deriveranno dalla digitalizzazione dei comparti industria, business e settore pubblico[4]; e anche che innumerevoli volumi di dati (c.d. big data) saranno repertati in sistemi computerizzati non più e prevalentemente “standing alone”, bensì collegati in rete e con applicativi B2B (Business to Business)[5]. Si arriverà cioè a un vero e proprio “ecosistema dei dati” basto sull’Intelligenza Artificiale, i cui benefici tecnologici saranno al servizio di cittadini, società ed economia, per una accelerazione dello sviluppo del business e dei servizi di pubblico interesse. E ciò anche grazie ai rapidi progressi che si registreranno del campo della computazione quantistica[6], da cui deriveranno aumenti esponenziali delle capacità/velocità di elaborazione dei dati, rispetto a quelle ad oggi possibili.
Ma in cosa consiste esattamente l’Intelligenza Artificiale? Quali sono le sue declinazioni applicative e le sue dimensioni relazionali con l’uomo? Perché l’Europa è interessata al suo sviluppo? Per Wikipedia l’Intelligenza artificiale (IA) è una disciplina appartenente all’informatica; che studia fondamenti teorici, metodologie e tecniche che consentono la progettazione di sistemi hardware e software in grado di dotare un elaboratore elettronico di prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.
Sono quattro le caratteristiche peculiari del processo (interno) di ragionamento e del comportamento (esterno) adottati dai sistemi intelligenti (IA) e che in qualche modo rilevano in termini di efficacia e di somiglianza con il comportamento umano o ideale (c.d. comportamento razionale).
In particolare, l’IA si caratterizza per capacità di:
I) agire umanamente: il risultato di una operazione compiuta dal sistema intelligente, non è distinguibile da quella svolta da un umano;
II) pensare umanamente: il processo che porta il sistema intelligente alla soluzione di un problema, replica quello umano (segue cioè un approccio associato alle scienze cognitive);
III) pensare razionalmente: il processo che porta il sistema intelligente a risolvere il problema è un procedimento formale che si rifà alla logica;
IV) agire razionalmente: il processo che consente al sistema intelligente di risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso, sulla base delle informazioni a disposizione.
In virtù delle sue caratteristiche peculiari, l’IA è una disciplina dibattuta tra scienziati e filosofi, poiché manifesta aspetti etici oltreché teorici e pratici. Passando alla dimensione europea del concetto, ritroviamo la più chiara definizione di Intelligenza Artificiale nella Comunicazione sull’IA per l’Europa già citata, come successivamente ripresa ed integrata dallo specifico Gruppo di Esperti di Alto livello UE, dedicato alla materia. In particolare: “l’Intelligenza Artificiale (IA) è riferibile a sistemi di visualizzazione di comportamenti intelligenti, mediante l’analisi del loro ambiente e dei loro comportamenti – assunti con un dato livello di autonomia – finalizzati al conseguimento di specifici obiettivi. I sistemi di IA possono basarsi esclusivamente su software ed essere operativi nel mondo virtuale (si pensi ad es. agli assistenti vocali, ai software per l’analisi di immagini, ai motori di ricerca, ai sistemi di riconoscimento vocale e facciale) o diversamente l’IA può risultare incorporata in dispositivi hardware (come ad es. avviene per robot avanzati, auto senza guidatore, droni o per applicazioni dell’Internet delle cose)”. Ancora, più in dettaglio: “I sistemi di Intelligenza Artificiale (IA) sono sistemi software (ed eventualmente hardware) progettati dagli umani che, a fronte di obiettivi complessi a loro assegnati, agiscono nella dimensione fisica o in quella digitale, percependo i relativi ambienti mediante specifiche funzionalità (i.e. l’ acquisizione di dati, e/o l’interpretazione di dati raccolti in modo strutturato o destrutturato, e/o il ragionamento fondato sulla conoscenza e/o l’elaborazione delle informazioni provenienti da tali dati) che consentono l’assunzione della/e migliore/i azione/i possibile, per il conseguimento degli obiettivi dati. I sistemi di IA possono utilizzare regole simboliche o imparare un modello numerico e sono in grado di adattare i loro comportamenti, analizzando come l’ambiente sia influenzato o meno dalle loro precedenti azioni”. Il Libro Bianco della Commissione aggiunge sul punto altre informazioni; ossia che i principali elementi di cui si compone l’IA sono i dati e gli algoritmi, e che l’IA può essere integrata in sistemi hardware.
Nel caso delle tecniche di apprendimento automatico (c.d. tecniche di machine learning) che sono un sottoinsieme dell’IA, gli algoritmi sono addestrati a dedurre determinati schemi in base ad una serie di dati, al fine di determinare le azioni utili al conseguimento di uno specifico obiettivo. Gli algoritmi sono in grado di accrescere la loro conoscenza, in corso di utilizzo. Ma se è vero che i prodotti basati sull’IA sono in grado di agire autonomamente grazie alla percezione del loro ambiente e senza la necessità di seguire “un set di istruzioni predeterminate”, tuttavia è anche vero che il loro comportamento è fortemente condizionato dalle scelte dei relativi sviluppatori. Sono cioè sempre e solo gli umani che determinano e programmano gli obiettivi, che poi sono rimessi ai sistemi basati sull’ IA, per la relativa ottimizzazione. Per l’Europa l’IA è una tecnologia strategica che offre innumerevoli benefici per cittadini, aziende e società ampiamente intesa, a condizione che la stessa sia umano centrica, etica, sostenibile e rispettosa dei diritti e delle libertà fondamentali. L’IA offre importanti vantaggi in termini di efficienza e produttività; è in grado di rafforzare la competitività dell’industria europea e di migliorare il benessere dei cittadini; può anche contribuire a trovare soluzioni a fronte di alcune delle più urgenti criticità del nostro tempo, quali la lotta al cambiamento climatico, al degrado ambientale, in risposta alle sfide per la società su sostenibilità, cambiamenti demografici, protezione delle democrazie, contrasto alla criminalità.
2. Obiettivi UE in materia di IA – il piano operativo del Libro Bianco della Commissione
Sulla base dei risultati della pubblica consultazione di cui al Libro Bianco sull’IA, la Commissione UE intende proporre agli SM uno specifico Piano Coordinato di azione, con l’obiettivo di attingere dal settore privato e pubblico oltre 20 bilioni di investimenti l’anno sull’IA, per i prossimi 10 anni da un lato e, dall’altro, di destinare parte delle risorse già di Programma Europa Digitale, Horizon for Europe, e altri specifici Fondi Strutturali e di Investimento UE a favore delle Regioni meno sviluppate e aree rurali, allo sviluppo dell’IA in Europa, senza trascurarne il possibile impatto ambientale, in riferimento al cambiamento climatico ed al degrado ambientale. Quota parte dei finanziamenti di cui sopra è pensata a supporto delle PMI nell’accesso e nell’uso dell’IA, e verrà destinata alla creazione di almeno 1 Hub di Innovazione Digitale per SM.
Inoltre, poiché il miglioramento all’accessibilità ed alla gestione dei dati sono requisiti fondamentali dello sviluppo dell’IA e di altri applicativi digitali, la Commissione UE propone altresì di destinare più di 4 bilioni di Euro di cui al Programma Europa Digitale a supporto dello sviluppo di alti livelli nel calcolo quantistico, anche per quanto attiene agli ambiti edge computing, infrastrutture dati e cloud. A livello operativo la Commissione UE supporta la creazione di Centri di eccellenza europea in IA, data science e robotica; che, anche con ricorso a network di poli universitari e istituti di istruzione superiore nazionali di alto profilo, siano capaci di formare e attrarre talenti da tutto il mondo, da collocarsi negli ambiti della ricerca innovativa e dello sviluppo tecnologico, e con un focus specifico anche sulle competenze necessarie per lavorare e migliorare la forza lavoro già operativa del settore digitale e IA. Il tutto nel rispetto di specifiche “linee guida etiche europee” da applicarsi a cura degli sviluppatori dedicati e secondo il più generale “approccio europeo umano-centrico” dell’IA applicabile al mondo lavoro.
Parallelamente, la Commissione UE intende promuovere un Piano di Azione di Educazione Digitale utile a colmare carenze di competenze esistenti, promuovendo adeguati sistemi di informativa e “confidenza” cittadina, sulle corrette declinazioni applicative dell’IA. Anche il settore pubblico è coinvolto nel processo di accelerazione digitale europeo. In particolare con il “Programma Adotta l’IA” la Commissione UE intende coinvolgere prioritariamente i servizi essenziali nazionali di Pubbliche amministrazioni, Ospedali, servizi pubblici e trasporti ed altri settori di pubblico interesse degli SM, in progetti finalizzati a promuovere l’utilizzo di prodotti e servizi che si basano sull’IA, nell’ambito delle attività specificatamente loro deputate. A livello internazionale, la cooperazione dell’UE con altri player mondiali IA sarà assicurato principalmente in ambito WTO (World Trade Organization). Come si legge in proposito nel Libro Bianco, la Commissione UE è convinta del fatto che la cooperazione con Paesi terzi su questioni attinenti l’Intelligenza Artificiale debba fondarsi su un approccio che promuova il rispetto dei diritti fondamentali (inclusi quelli della dignità umana, del pluralismo, dell’inclusione, della non discriminazione e della protezione della privacy e dei dati personali) e, a tal fine, intende lottare per esportare questi valori fondamentali europei, a livello mondiale[7]. Un approccio responsabile allo sviluppo e all’utilizzo dell’IA nella visione della Commissione UE potrà anche fungere da volano utile al conseguimento degli obiettivi di sviluppo sostenibile di cui all’ “Agenda 2030”[8].
3. Rischi collegati all’Intelligenza Artificiale – la necessità di un chiaro quadro regolamentare
Come per ogni nuova tecnologia, anche l’IA presenta opportunità e rischi. Questo perché l’IA può già svolgere molte funzioni, che prima del suo avvento erano appannaggio esclusivo di noi umani. E, di più, come si è detto, l’IA è in grado di imparare, mentre è operativa. Ne deriva che cittadini e persone giuridiche saranno sempre più soggette ad azioni o decisioni realizzate direttamente da o con l’assistenza di sistemi IA che potrebbero risultare difficili da comprendere e/o da osteggiare efficacemente, ove necessario. Se è vero che il processo decisionale umano non è scevro da errori o pregiudizi, altrettanto vero è infatti che una delega decisionale rimessa all’IA può avere conseguenze di più ampio impatto e/o in grado di colpire o discriminare molte più persone perché priva del meccanismo di controllo sociale che regola il comportamento umano. L’IA aumenta poi le possibilità di tracciabilità e analisi di abitudini quotidiane delle persone; così che, con sue specifiche declinazioni applicative di prodotto, si potrebbe arrivare a situazioni di sorveglianza di massa, di ri-tracciabilità o de-anonimizzazione di dati personali, con l’insorgenza di nuovi rischi per la protezione dei dati personali, anche con riferimento a data set che di per sé eventualmente non contengano dati personali. I cittadini possono quindi essere intimoriti, dalla possibilità che loro situazioni o diritti, risultino eventualmente rimesse a scelte derivanti da processi decisionali algoritmici. E anche le aziende che ricorrono teli sistemi IA possono trovarsi in situazioni di possibile incertezza giuridica (si pensi agli effetti indesiderati o peggio alle conseguenze nefaste provocate da un uso maligno dell’IA).
Sotto diverso profilo, occorre considerare anche i potenziali rischi derivanti da difetti di progettazione della tecnologia IA applicata a prodotti o servizi o ai diversi rischi derivanti dall’uso dei prodotti con tecnologia IA[9] (si pensi a possibili problemi associati a disponibilità/non disponibilità di dati, o derivanti da meccanismi di machine learning; o ancora al fatto che in alcuni prodotti l’integrazione di software IA, può modificarne le funzionalità durante il relativo ciclo di vita; o ancora al fatto che l’IA può essere implementata in un prodotto, dopo la sua immissione sul mercato, eventualmente anche da un soggetto diverso dal produttore). Si aggiungono i rischi legati alle minacce informatiche, quelli collegati alla sicurezza personale (ad es. dei nuovi applicativi IA di uso domestico) o ancora i rischi da perdita di connettività, etc. Da tutti questi rischi potrebbero derivare situazioni di incertezza per gli stessi Operatori del mercato interno (e quindi per il business) prima ancora che per i cittadini UE. Per ovviare a tutto ciò la Commissione UE già nella sua strategia sull’IA 2018 ha ritenuto di dover affrontare il tema degli aspetti socioeconomici dello sviluppo tecnologico, parallelamente alla scelta di aumentare gli investimenti in ricerca innovazione e capacità dell’Intelligenza Artificiale, in tutta Europa; ricercando un allineamento anche delle correlate strategie degli SM, in materia. La Commissione UE ha anche istituito il già citato Gruppo di Esperti di Alto livello dedicato, a cui si deve la pubblicazione nell’Aprile 2019 delle Linee Guida sull’IA affidabile (su cui si inserisce peraltro la Comunicazione della Commissione UE dello stesso anno (i.e. DOC COM (2019)168) sui requisiti chiave per la sicurezza dei sistemi IA) a cui più di 350 Organizzazioni nazionali dovranno fornire il loro feedback entro giugno 2020.
Tali requisiti sono: Regia e supervisione umana; Robustezza e sicurezza tecnica; Governance della privacy e dei dati; Trasparenza; Diversità, non discriminazione ed equità; Benessere sociale ed ambientale e Accountability.
Il punto, è che mentre un certo numero di requisiti di sicurezza sono già presenti in sistemi normativi vigenti a livello nazionale, altri – come quelli concernenti trasparenza, tracciabilità e sorveglianza umana – non sono contemplati in alcuni Ordinamenti che regolamentano molti settori dell’economia. Compete in particolare al Gruppo di Esperti di valutare se le previsioni normative attuali siano esaustive a fronte dei rischi derivanti all’AI (e ciò anche con riguardo alla legislazione sulla sicurezza e sulla responsabilità da prodotto), e possano quindi continuare ad essere applicate così come sono, o diversamente necessitino di integrazioni e modifiche o della sostituzione integrale con nuove previsioni di legge applicabili[10]. Compete in ogni caso all’UE definire un quadro normativo specifico per un’IA affidabile, capace di proteggere tutti i cittadini europei, per un mercato interno scevro da attriti, e a beneficio del futuro sviluppo e della miglior comprensione dell’IA per il rafforzamento delle basi dell’industria europea basata sull’IA. Tale quadro normativo applicabile all’Intelligenza Artificiale, sarà impostato – come si legge nel Libro Bianco – secondo l’approccio c.d. risk based.
Implicazioni per la sicurezza ed il regime della responsabilità derivanti all’IA dell’Internet delle cose ed della robotica – COSA DICE IL REPORT UE |
Il Report allegato al Libro Bianco la Commissione UE evidenzia obiettivi da raggiungere, che impongono di introdurre nuove previsioni normative rispetto a quelle vigenti per coprire rischi nuovi che potrebbero derivare dalle tecnologie digitali ed in particolare dagli applicativi IA. In particolare: Il comportamento autonomo di alcuni sistemi IA durante il loro ciclo di vita, può comportare importanti modifiche sul prodotto, con possibili impatti sulla sicurezza, tali da rendere necessaria la previsione di nuove modalità di valutazione del rischio; inoltre, il controllo umano su prodotti e servizi IA – dalla fase di progettazione a tutto il ciclo di vita dello stesso prodotto o servizio – potrebbe rendersi necessario a fini cautelativi; Tra le obbligazioni in capo al produttore, in alcune specifiche situazioni, potrebbero doversi inserire quelle concernenti i rischi per la salute mentale degli utilizzatori (si pensi ad es. alle situazioni collaborative con impiego di robot umanoidi); La legislazione UE sulla sicurezza di prodotto potrebbe doversi estendere alle tematiche dei rischi per la sicurezza dei dati difettosi in fase di progettazione, così come ai meccanismi utili a garantire che la qualità dei dati debba essere mantenuta durante tutto il corso dell’uso dei prodotti o sistemi IA; Il problema dell’opacità dei sistemi basati sugli algoritmi potrebbe essere contrastato dalla previsione di specifici requisiti di trasparenza obbligatori; Il quadro normativo vigente potrebbe dover regolamentare in modo diversificato il caso di software autonomi immessi come tali nel mercato, da quello di software scaricati ed inseriti successivamente (ossia in un prodotto già immesso sul mercato) ove ciò fosse di impatto sulla sicurezza; In considerazione della crescente complessità della catena della fornitura associata alle nuove tecnologie, potrebbero rendersi necessarie previsioni specifiche che impongano obblighi di collaborazione attiva tra diversi Stakeholder (i.e. Operatori economici, catena di fornitura e utilizzatori); Sebbene le innovazioni tecnologiche debbano essere messe in condizione di progredire – è necessario fare in modo che le persone che abbiano subito un danno provocato da sistemi IA possano usufruire di meccanismi di tutela equivalenti a quelli applicabili a persone che abbiano subito danni provocati da altre tecnologie; Tutti gli obiettivi di cui sopra dovranno essere attentamente valutati, anche in base a opportune revisioni che si rendessero necessarie alla Direttiva UE sulla responsabilità da prodotto, ed a seguito di un’armonizzazione europea del quadro delle norme esistenti in materia a livello nazionale (la Commissione UE valuterà in particolare l’opportunità di un intervento volto a semplificare le regole sulla responsabilità da prodotto, quanto all’onere della prova, in caso di danno derivante dall’operatività di applicativi IA). |
4. Risk Based Approach e sistemi di certificazione nelle previsioni del Libro Bianco Ue
Al fine di rispettare il principio di proporzionalità nella declinazione del quadro normativo di riferimento per una IA sicura[11], la Commissione UE propone di applicare l’approccio basato sul rischio. In particolare nel Libro Bianco viene data particolare enfasi alla necessità di stabilire quando si possa essere in presenza di alto rischio in ambito IA, tale situazione potendo ricorrere in settori merceologici diversi, con riferimento a valori o beni volta in volta variabili, o ancora attenere a modalità di utilizzo di prodotti o servizi dotati di IA suscettibili di ingenerare pregiudizi per la protezione della sicurezza, dei diritti dei consumatori o altri diritti fondamentali.
Due i criteri cumulativi che possono far presumere di essere in presenza di un alto rischio IA, ossia:
I) allorquando una applicazione IA sia utilizzata in un settore merceologico in cui, per le caratteristiche delle attività che le sono peculiari, si possa prevedere l’insorgenza di rischi significativi (ad es. nei settori c.d. sensibili di: assistenza sanitaria, trasporti, energia e parti del settore pubblico);
II) allorquando l’applicazione IA nel settore di riferimento detto, sia altresì utilizzata in modo tale da far presumere che possano insorgere rischi significativi[12].
Vi sono poi specifici ambiti che, a prescindere dalle due condizioni cumulative di cui sopra, sono già secondo la Commissione UE di per sé da considerarsi ad alto rischio, e cioè: ove l’IA sia utilizzata in processi di selezione del personale e/o in ogni situazioni da cui possa derivare un impatto per i diritti dei lavoratori; ove specifiche applicazioni IA possano impattare sui diritti dei consumatori; in caso di utilizzo di applicativi IA a scopi di identificazione biometrica remota ed altre tecnologie di sorveglianza intrusiva. Si aggiungono sul punto le specifiche di cui alle Linee guida dal Gruppo di Esperti di Alto Livello, dalle quali emerge che i fattori rilevanti per la valutazione di un “rischio alto” di un applicativo IA o di un suo utilizzo sono: dati di allineamento; tenuta dei dati e delle registrazioni; informazioni da fornire; robustezza e precisione; supervisione umana; ulteriori requisiti aggiuntivi specifici per particolari applicativi IA, come ad es. quelli utili all’identificazione biometrica da remoto. Per gli applicativi IA ad alto rischio (e quindi potenzialmente pregiudizievoli per i cittadini ed alcuni settori della società), la Commissione UE disporrà l’introduzione di procedure di valutazione obbligatoria della conformità ai requisiti di cui a quadro normativo specifico, oltreché procedure di collaudo, validazione e certificazione obbligatoria. Tali procedure – da definirsi anche con il coinvolgimento e a cura delle competenti autorità ed enti di normazione degli SM che saranno deputate a porle in essere – saranno vincolanti per tutti gli operatori economici destinatari dei requisiti normativamente imposti a livello UE per le situazioni IA ad alto rischio (v. nota di testo 11), indipendentemente dal loro luogo di stabilimento.
Con riferimento ai diversi applicativi IA non aprioristicamente qualificabili come ad alto rischio – e quindi, in quanto tali, non assoggettabili alla valutazione vincolante dei fattori di cui sopra – la Commissione UE propende per la previsione normativa di uno “schema di etichettatura su base volontaria” da definirsi sempre anche con il coordinamento e la cooperazione dei competenti Enti e delle Autorità nazionali degli SM. Gli operatori economici interessati potranno scegliere di fare propri i requisiti per la messa in sicurezza degli applicativi IA già indicati per le situazioni ad alto rischio a livello UE o diversamente attenersi allo specifico insieme di requisiti similari, come specificatamente stabiliti per le finalità dello schema volontario già detto; così ottenendo un marchio di qualità dei loro applicativi IA. Tale sistema di certificazione su base volontaria per i sistemi IA non ad alto rischio consentirà agli operatori economici che la adottano (principalmente agli sviluppatori e installatori IA) di segnalare che i loro prodotti o servizi dotati di IA sono affidabili; al contempo essa sarà di aiuto agli utilizzatori finali, nella comprensione del fatto che i predetti prodotti e servizi, sono conformi agli standard di sicurezza e agli altri requisiti obbligatori, per specifica normativa IA dell’UE.
Note
[1] Sulla base di tale strategia, nel Dicembre 2018 la Commissione UE ha elaborato con il supporto degli Stati Membri un Piano coordinato volto a favorire lo sviluppo e l’utilizzo dell’IA in Europa (i.e. Piano Coordinato per l’IA – DOC COM (2018) 795) che propone 70 azioni di intervento da realizzare entro il 2027, in settori chiave (ricerca e investimenti, sviluppo del mercato, competenze ed abilità, big data, cooperazione internazionale), con regolare monitoraggio e periodica revisione.
[2] Si stima che in Europa nel 2016 si siano investiti oltre 3.2 bilioni di Euro in IA, a fronte dei circa 12.1 bilioni di Euro investiti dal Nord America e 6.5. bilioni di Euro dell’Asia.
[3] Si stima che l’attuale impronta ambientale delle ITC sia pari al 2% delle emissioni globali.
[4] Il volume dei dati prodotti nel mondo è in continuo e rapido aumento; dai 33 zeta byte del 2018 si presume si arriverà a 175 zeta bytes nel 2025.
[5] Oggi, l’80% delle attività di elaborazione ed analisi dei dati in cloud, sono realizzate da data centers e strutture informatiche centralizzate, a fronte del 20% realizzato da smart objects (quali ad es. automobili, elettrodomestici di nuova generazione, robot di produzione, strutture informatiche vicine all’utente (c.d. edge computing); per il 2025 si stima che tali proporzioni sono destinate a mutare in modo radicale.
[6] Si stima che i computer quantistici di prossima generazione avranno la capacità di processare in meno di alcuni secondi molti più set di dati di quelli che ad oggi sono in grado di produrre i più sofisticati computer dedicati allo sviluppo applicativo della nuova IA, nei diversi settori di interesse.
[7] Mediante il ricorso allo strumento della partnership, la Commissione finanzierà 2,5 milioni di euro in progetti volti a facilitare la cooperazione internazionale con l’UE, nella promozione delle linee guida etiche comunitarie applicabili all’IA, nell’adozione di principi comuni e di determinazioni operative.
[8] Agenda 2030 per lo Sviluppo Sostenibile è un Programma d’azione per le persone, il pianeta e la prosperità sottoscritto nel settembre 2015 dai Governi dei 193 Paesi membri dell’ONU. Ingloba 17 Obiettivi per lo Sviluppo Sostenibile, per un totale di 169 ‘target’ o traguardi da conseguire. L’avvio ufficiale degli Obiettivi per lo Sviluppo Sostenibile ha coinciso con l’inizio del 2016, guidando il mondo sulla strada da percorrere nell’arco dei prossimi 15 anni: i Paesi membri ONU, infatti, si sono impegnati a raggiungerli entro il 2030. Gli Obiettivi di Agenda 2030 danno seguito ai risultati degli Obiettivi di Sviluppo del Millennio (c.d. Millennium Development Goals) che li hanno preceduti, e rappresentano obiettivi comuni su un insieme di questioni importanti per lo sviluppo: la lotta alla povertà, l’eliminazione della fame e il contrasto al cambiamento climatico, per citarne solo alcuni. ‘Obiettivi comuni’ significa che essi riguardano tutti i Paesi e tutti gli individui: nessuno è escluso, né può essere lasciato indietro lungo il cammino necessario a portare il mondo sulla strada della sostenibilità.
[9] Un esempio può essere rappresentato dai prodotti dell’Internet of things; pensiamo ad es. allo smartwatch per bambini. Prodotto che potrebbe non presentare di per sé rischi per il bambino che lo indossa ma che, ove privo di un livello minimo di sicurezza, potrebbe venir utilizzato come dispositivo per avere diretto accesso al bambino.
[10] Gli SM lamentano la mancanza di un quadro comune europeo. La Commissione sull’Etica dei dati della Germania ha suggerito l’adozione di un sistema normativo basato su 5 livelli di rischiosità (si andrebbe dalla non regolamentazione specifica dei sistemi IA più innocui, al divieto più completo dei sistemi IA più pericolosi); la Danimarca ha appena licenziato il marchio etico dei dati (c.d. Data Ethics Seal); Malta ha introdotto un sistema di certificazione volontaria dell’IA.
[11] Il quadro normativo UE in materia di IA specificherà le obbligazioni imposte a fronte di possibili situazioni di rischio, strutturate per tipologie di destinatari di riferimento (gli attori del ciclo di vita di un sistema IA possono infatti essere molteplici e diversi: sviluppatori, installatori, produttori, distributori, importatori, fornitori di servizi, utilizzatori privati o utenti professionali); sarà applicabile a tutti i pertinenti operatori economici che forniscano prodotti o servizi integrati con IA nell’UE, indipendentemente dal fatto che siano stabiliti o meno nell’Unione Europea.
[12] Sul punto la Commissione UE aggiunge la considerazione che non ogni utilizzo di IA nei settori detti comporta necessariamente l’insorgenza di rischi significativi; in ogni caso, la valutazione del livello del rischio in relazione all’uso dell’IA dovrà essere sempre rapportato all’entità dell’impatto sulle parti interessate.
Articolo a cura di Giovanna Raffaella Stumpo
Giovanna Raffaella Stumpo, Avvocato del Foro di Milano, Giornalista pubblicista, collabora con primarie Case editrici e Quotidiani per l’attività redazione specialistica e per discipline strumentali all’esercizio della professione. Formatore accreditato, in collaborazione con Università, CNF, Consigli dell’Ordine, Scuole di formazione, Associazioni ed Enti per svolge con continuità attività di docenza e di progettazione di corsi nell’ambito della formazione e dell’aggiornamento professionale continuo. Auditor 231/2001 e Valutatore SGQ ISO 9001, è Consulente per il settore dei servizi alle imprese: nella progettazione e sviluppo di SGQ – Sistema Gestione Qualità ISO 9001, SGI – Sistemi Gestione Integrati (Privacy, Qualità, Ambiente e Sicurezza), MOG – Modello Organizzativo Gestionale ex Dl. 231/2001, Reti d’impresa e/o collaborative; nel coaching alle PMI per progetti con finanziamento europeo (www.giovannastumpo.it)