Predictive Policing, l’ultimo draft AIA ne esclude l’ammissibilità
Nell’acceso dibattito sull’etica dell’Intelligenza Artificiale una delle principali riserve riguarda le attività che possono avere effetti rilevanti sui diritti delle persone, come il cosiddetto Predictive Policing.
L’espressione indica “the collection and analysis of data about previous crimes for identification and statistical prediction of individuals or geospatial areas with an increased probability of criminal activity”.
Vale a dire la pratica di delegare a uno o più algoritmi il compito di valutare, in base ai dati storici disponibili, la probabilità che in un dato contesto geografico vengano commessi dei reati, ma anche la “pericolosità” di singoli individui.
Un utilizzo che, secondo autorevoli studi, rischia di rivelarsi discriminatorio e di colpire in modo sproporzionato esponenti di minoranze etniche o intere comunità già marginalizzate.
Ethical AI, la posizione degli USA e delle Big Tech
Negli Stati Uniti, complice l’assenza di una specifica normativa, le tecnologie basate sull’Intelligenza Artificiale sono attualmente impiegate anche dalle autorità per numerosi scopi. Fra questi il monitoraggio delle frontiere (in particolare al confine con il Messico) e l’ambito investigativo, con il Predictive Policing utilizzato per monitorare il rischio di attività criminali in zone ritenute critiche. Vanno in controtendenza singole città come Portland o San Francisco, che in anni recenti hanno approvato dei ban sull’utilizzo del riconoscimento facciale negli spazi pubblici.
Ora, comunque, Washington sembra voler rafforzare il controllo sull’AI: lo prova il recente incontro alla Casa Bianca con i rappresentanti delle Big Tech, mirato a “innovating responsibly and protecting people’s rights and safety”, o l’audizione al Congresso di Sam Altman, CEO di OpenAI (nonché tra i proponenti della discussa “moratoria” temporanea sull’Intelligenza Artificiale) che ha evidenziato l’esigenza di elevati standard di sicurezza per i modelli più potenti, come pure di una stretta cooperazione internazionale sul tema.
Preoccupazioni condivise da professionisti del calibro di Geoffrey Hinton, dimessosi da Google dopo una lunga carriera nello sviluppo delle tecnologie AI, le cui previsioni su un’AI prossimamente abbastanza “forte” da destabilizzare il mercato occupazionale e mettere in discussione lo stesso concetto di “verità” hanno ottenuto una grande risonanza mediatica. Hinton ha ricevuto anche diverse critiche, soprattutto da parte di un gruppo di ricercatrici (tra le quali Timnit Gebru, estromessa nel 2020 dal team Ethical AI di Google e fondatrice del Distributed AI Research Institute – DAIR) che in una lettera aperta ricordano di aver invocato da tempo, nell’indifferenza generale, maggiore attenzione alle ricadute etiche di queste tecnologie.
Dopo anni di entusiasmi forse eccessivi, i timori per tali ricadute sono così sentiti da spingere anche i lavoratori su entrambi i lati dell’Atlantico – dai moderatori di contenuti nigeriani che per la prima volta si organizzano in un sindacato, agli autori di Hollywood in sciopero – a esigere regole e tutele per i loro settori, profondamente trasformati dalla crescente pervasività degli strumenti AI.
L’AIA europeo, libertà digitali e diritti umani
Se gli USA iniziano a pensare a una regolamentazione dell’Intelligenza Artificiale, l’Unione Europea è già attivamente al lavoro per introdurre una disciplina ad hoc.
Dopo il report ENISA sugli standard di sicurezza per l’AI, il prossimo fondamentale step sarà l’Artificial Intelligence Act (AIA) la cui bozza, approvata lo scorso 11 maggio dai due Comitati Internal Market e Civil Liberties, affronterà un primo vaglio del Parlamento nella sessione del 12-15 giugno.
Tra gli obiettivi delle nuove regole comunitarie, su cui resta alta l’attenzione delle organizzazioni per le libertà digitali, spicca la volontà dichiarata di far sì che i sistemi Ai siano “safe, transparent, traceable, non-discriminatory, and environmentally friendly”.
Scopi perseguiti adottando un generale approccio risk-based, ma anche vietando integralmente le pratiche ritenute troppo invasive: tra cui strumenti di “sorveglianza biometrica” e “Predictive policing systems (based on profiling, location or past criminal behaviour)”. Una scelta che di fatto, qualora il testo dell’AIA fosse approvato nella formulazione attuale, escluderebbe dal panorama europeo l’applicabilità degli strumenti di Predictive Policing.
Anche alla luce delle novità normative, sembra davvero che – ben al di là delle sfide tecnologiche – la più grande scommessa in tema di AI dovrà giocarsi sul fronte etico, politico e di tutela dei diritti umani fondamentali.
A cura della Redazione