I confini del digitale. Nuovi scenari delineati dal Garante per la privacy dopo la Giornata Europea della protezione dei dati personali

Riflessioni a tutto campo su temi particolarmente rilevanti nella società attuale e futura: l’impatto delle tecnologie digitali sulle libertà degli individui e sugli stessi modelli di democrazia; il confronto tra Europa e Cina sul concetto di sovranità digitale e le nuove forme di controllo sociale; il ruolo che in questi nuovi scenari può giocare la protezione dei dati personali.

La Giornata Europea della protezione dei dati personali, promossa dal Consiglio d’Europa con il sostegno della Commissione europea e di tutte le Autorità europee per la privacy, viene celebrata a partire dal 2007 con l’obiettivo di sensibilizzare i cittadini sui diritti legati alla tutela della vita privata e delle libertà fondamentali.

In occasione della Giornata, l’Autorità Garante ha organizzato un convegno intitolato “I confini del digitale. Nuovi scenari per la protezione dei dati”.

Le innovazioni connesse alle tecnologie digitali influenzano sempre più pesantemente le coordinate stesse del diritto: a partire dal principio di territorialità e dalla nozione di sovranità, fino alla stessa soggettività giuridica, in un contesto in cui si discute della possibilità di considerare la responsabilità dei robot.

D’altronde, ogni tecnologia riflette e a un tempo determina anche la propria cornice giuridica, così la tecnologia digitale concorre alla definizione di criteri valoriali e orienta sempre più le decisioni private e pubbliche.

La rete, come ogni sistema relazionale, rischia però di determinare in forme nuove quelle asimmetrie – anzitutto di potere – da cui aveva promesso di liberarci; e il digitale, per sua stessa natura privo di confini, diviene esso stesso confine del nostro essere persone, segnando il limite che separa la libertà dal determinismo.

Rileva in questo senso, soprattutto, l’intelligenza artificiale applicata alla vita individuale e collettiva, la cui progressiva diffusione ha segnato quella che è stata definita “quarta rivoluzione industriale”, con il passaggio all’economia della condivisione, al “pianeta connesso”, all’ IoT (Internet of Things).

Il tutto con straordinarie possibilità, impensabili anche solo pochi anni fa, ma anche con rischi che vanno prevenuti per porre davvero la tecnica al servizio dell’uomo, come recita il Regolamento europeo sulla protezione dati.

Ad esempio il progetto “Smart Nation” a Singapore da un lato ha sperimentato droni-postino e taxi a guida autonoma, dall’altro ha legittimato, tra le deroghe ampie alla disciplina di protezione dati che pure ha introdotto, un incisivo controllo pubblico sulle persone, basato persino sul monitoraggio dei post pubblicati sui social, con tecniche di sentiment analysis.

Va ancora oltre il modello cinese, caratterizzato da soluzioni avveniristiche e dall’investimento nelle tecnologie digitali delle sue grandi risorse umane e finanziarie. Più di un quarto delle oltre duemila compagnie di intelligenza artificiale del mondo si trovano in Cina, che in questo campo possiede una carta vincente: la demografia, assieme all’assenza di norme efficaci a tutela della privacy, costituisce un fattore di enorme vantaggio competitivo, in un contesto economico fondato sull’intelligenza artificiale che si alimenta di quantità crescenti di dati, così come accadeva per l’industria del petrolio nel Novecento.

E infatti la Cina compete per il primato nello sviluppo del computer quantistico e partecipa alla grande sfida per la costruzione delle maggiori reti 5G nel mondo. D’altra parte, in Cina l’innesto così profondo della tecnologia nella vita privata e pubblica si accompagna a un’altrettanto pervasiva ingerenza dello Stato nell’esistenza individuale, in un contesto di sostanziale osmosi tra i grandi provider e il Governo, legittimato ad ottenere dai primi, per generiche ragioni di sicurezza, i dati personali di chiunque. È senz’altro una peculiare espressione del patto sociale, fondato sulla promozione del benessere a fronte della limitazione di molti diritti civili e politici.

Le tecnologie di riconoscimento facciale sono utilizzate, sia nelle aziende che in qualsiasi spazio pubblico, come sistema di controllo sociale e prevenzione del crimine. Ai cittadini viene dunque assegnato un “punteggio” (Social Credit System) fondato sulla valutazione delle abitudini di acquisto, delle frequentazioni più o meno esibite, dei contenuti pubblicati in rete, penalizzando quelli socialmente o politicamente indesiderabili, con inevitabili effetti di normalizzazione.

La “vita a punti” dei cinesi è quindi qualcosa di più e di diverso dalla mera digitalizzazione dell’azione pubblica, ma appare rivolta all’uso della tecnologia per un controllo ubiquitario sul cittadino, nel nome del totem della sicurezza.

Torna dunque la tentazione e la pretesa di espropriazione di quella sfera essenziale di diritti e libertà, della stessa autodeterminazione individuale, la cui affermazione di inviolabilità si deve invece proprio al diritto alla privacy. Un diritto sancito a livello internazionale, nella forma dell’immunità da interferenze arbitrarie nella vita privata, nel secondo dopoguerra, come reazione alle profonde ingerenze realizzate dai regimi totalitari.

Eppure, in un contesto di progressiva erosione del confine e della sua idea, le ostilità si manifestano a livello globale in maniera più sottile, alimentate da strumenti e controlli meno percettibili e più sfuggenti alle garanzie tradizionali: le relazioni ostili tra gli Stati si svolgono prevalentemente in rete e sin dall’attacco informatico all’Estonia nel lontano 2007 si è discusso se in questi casi possa invocarsi un intervento della Nato, estendendo così al digitale gli strumenti tradizionali pensati per la difesa dell’equilibrio internazionale.

Ancora una volta, “contro ogni rischio di espropriazione del diritto da parte della tecnica”, è proprio la proiezione nella dimensione digitale dello Stato e della sua stessa sovranità a dimostrare come la protezione dati possa divenire presupposto di sicurezza, promuovendo quella resilienza indispensabile per la difesa della democrazia nel rispetto dell’identità.

Anzi è proprio questa circolarità tra protezione dati e democrazia a spiegare perché l’Unione europea abbia voluto affermare la propria sovranità digitale in senso diverso da quella reclamata dalla Cina e, cioè, verso la garanzia dei diritti della persona rispetto a chiunque ne gestisca, con i suoi dati, l’identità stessa.

Il modello europeo costituisce allora non soltanto un punto di riferimento cui si stanno progressivamente ispirando un numero crescente di ordinamenti – e il GDPR si avvia ad essere un esempio felice in tale direzione – ma anche uno dei pochi campi nei quali l’Unione mantiene una posizione comune, destinata a dimostrarsi vincente nella governance della società digitale.

Il nesso profondo che lega protezione dati e sovranità nazionale è emerso con veemenza anche negli Stati Uniti d’America in occasione della vicenda Cambridge Analytica, nella quale si è visto come molte delle comunicazioni personalizzate con inserzioni occulte, rese possibili da una disciplina della privacy nei fatti lacunosa, fossero riconducibili a potenze straniere, interessate ad influenzare attraverso il web il consenso elettorale.

L’antidoto non può che risiedere nell’affermazione progressiva della protezione dati come diritto universalmente tutelato, per restituire alla persona quella centralità che sembrava aver perso.

Ecco il ruolo più significativo che l’Europa potrà giocare in un contesto geopolitico in cui domina il potere dell’algoritmo: ridisegnare, proprio a partire dalla protezione dei dati, i confini del tecnicamente possibile alla luce di ciò che è giuridicamente ed eticamente accettabile.

Tornano in mente le parole – che potrebbero oggi apparire persino profetiche – di Arnold Gehlen, quando affermava che “uno dei risultati principali di tutta la storia della civiltà umana è, senza dubbio, la tendenza, constatabile nello sviluppo della tecnica, a soppiantare l’elemento organico mediante materie ed energie inorganiche […] e ciò ha la sua ragione nel fatto che la sfera della natura inorganica è la più accessibile ad una conoscenza metodica, razionale e rigorosamente analitica, ed alla corrispondente prassi sperimentale”.

I confini del digitale, appunto. In fondo sarebbe una singolarità davvero notevole se la hybris umana venisse soppiantata da quella, in prospettiva forse ancor più letale, del prodotto più sofisticato dell’umana techne, l’intelligenza artificiale.

 

Articolo a cura di Sergio Guida

Profilo Autore

Da economista aziendale, ha maturato esperienze direzionali in gruppi industriali diversi per settori, dimensioni e caratteristiche. Specializzato in pianificazione strategica e controllo di gestione, finanza, risk e project management, sistemi di gestione e rendicontazione integrativi (sociale, ambientale e intangible assets), è stato relatore in convegni e seminari e pubblica articoli di economia, finanza, digital transformation, data governance, public health, compliance & regulatory affairs.
Ha seguito percorsi multidisciplinari su Design Thinking, Human-Computer Interaction, Data protection & Privacy, Digital Health & Therapeutics. Business angel, segue con attenzione il mondo delle Startup.

Condividi sui Social Network:

Ultimi Articoli