La sicurezza cognitiva in contesti di cybersecurity
La Cognitive Security (COGSEC) è l’insieme delle tecniche e delle metodologie di difesa dagli attacchi di ingegneria sociale, manipolazioni intenzionali, non intenzionali di interruzione della cognizione e sensoriale.
La sicurezza cognitiva, tuttavia, in contesti di cybersecurity, si riferisce solitamente all’applicazione di tecnologie di intelligenza artificiale, machine learning e cognitive computing che sono modellate sui processi del pensiero umano per rilevare le minacce e proteggere i sistemi fisici e digitali.
La sicurezza cognitiva è quindi particolarmente utile per prevenire gli attacchi informatici che manipolano la percezione umana. Tali attacchi detti anche “hacking cognitivi”, sono progettati per influenzare i comportamenti degli utenti alfine di raggiungere gli scopi dell’attaccante.
Gli sforzi per la sicurezza cognitiva in questo settore includono anche approcci non tecnici, ad es. il concetto di “firewall umano” che mira a rendere le persone meno vulnerabili alla manipolazione, tecnicamente più preparate, nonché soluzioni tecniche progettate per rilevare dati fuorvianti, disinformazione, così come metodi per prevenirne la diffusione.
Come altre applicazioni di cognitive computing, la sicurezza cognitiva, utilizza algoritmi metodi e processi di apprendimento automatico che consentono ai sistemi cognitivi di estrarre, elaborare e analizzare enormi volumi di dati strutturati e non strutturati, in maniera costante, identificando informazioni significative, connessioni tra punti, dati e tendenze – che sarebbero diversamente impossibili da rilevare per un essere umano – attraverso analisi avanzate, con lo scopo di permettere ai sistemi di imparare come anticipare le minacce, rendendoli in grado di generare soluzioni proattive.
La manipolazione delle immagini ha una sua storia considerevole come propaganda in tempi di conflitto, oggi la facile disponibilità di strumenti digitali, la natura altamente realistica del contenuto falsificato e l’esistenza di nuovi canali mediatici per distribuire la disinformazione hanno trasformato i deepfake in un meccanismo di attacco privilegiato, e nell’ambito della COGSEC gli attacchi basati su deepfake sono diventati tra le principali e più pericolose minacce da affrontare nell’attuale contesto storico e ancor di più, nel prossimo futuro.
Il risvolto psicologico del fenomeno dei deepfake è proprio il mancato riconoscimento tra ciò che è vero e ciò che è falso, i deepfake si possono definire come “true lies”, bugie vere, in grado di mettere in crisi la fiducia verso l’Altro e contestualmente aumentare la frammentarietà del Sé.
Gli attacchi che possono generare i deep fake possono essere dunque mirati oltre al furto di identità, credenziali e frodi finanziarie, anche a scenari di più ampia e varia natura: cambiamenti dell’opinione pubblica, risultati elettorali distorti, confusione di massa, violenza etnica, guerra. Tutti questi eventi potrebbero essere facilmente innescati da deepfake, alimentati dai progressi dell’intelligenza artificiale e diffusi attraverso i tentacoli dei social media. I deepfake possono rivelarsi tra le forze più destabilizzanti che l’umanità ha dovuto affrontare da generazioni.
Le competenze di cui la disciplina della Cognitive Security deve disporre non sono solo meramente tecniche ed informatiche ma soprattutto umanistiche, psicologiche e geopolitiche. Sviluppare in profondità la tecnologia di rilevamento dei falsi è importante, ma è solo una parte della soluzione, il fattore umano, le debolezze nella nostra psicologia umana rendono i deepfake efficaci strumenti di offesa. Molto presto diverrà impossibile riconoscere ad occhio ed orecchio umano se un video o una clip audio sono autentiche o meno, e mentre la propaganda non è una novità, l’immediatezza viscerale della voce e dell’immagine danno ai falsi una profondità d’impatto sulle coscienze e negli animi delle persone senza precedenti. Per questo motivo la COGSEC negli ultimi anni è sempre più richiesta e finanziata sia dai governi che dall’industria.
Continua a leggere: scarica il white paper gratuito “Deepfake & Cyber Intelligence: tecniche di creazione, rilevamento e prevenzione“
Articolo a cura di Francesco Arruzzoli
Con oltre 25 anni di esperienza nell’ambito della sicurezza delle informazioni Francesco Arruzzoli è Senior Cyber Security Threat Intelligence Architect presso la Winitalia srl di cui è cofondatore. Si occupa di progettare infrastrutture e soluzioni per la Cyber Security di aziende ed enti governativi. In passato ha lavorato per multinazionali, aziende della sanità italiana, enti governativi e militari. Esperto di Cyber Intelligence e contromisure digitali svolge inoltre attività di docenza presso alcune università italiane.