Manuel Roveri “Machine Learning e Homomorphic Encryption: Il Futuro dell'Intelligenza Artificiale Privacy-Preserving”, Forum ICT Security 2024

Intelligenza Artificiale Privacy Preserving: un Futuro per la Protezione dei Dati Sensibili

Durante il 22° Forum ICT Security, Manuel Roveri – Professore Ordinario presso il Politecnico di Milano e Co-founder di Dhiria s.r.l. – ha esplorato le prospettive future dell’Intelligenza Artificiale Privacy Preserving, con particolare enfasi sulle tecnologie emergenti per la tutela delle informazioni personali e aziendali. Nella relazione “Machine Learning e Homomorphic Encryption: Il Futuro dell’Intelligenza…

Aspetti tecnici degli Adversarial Examples

Aspetti tecnici degli Adversarial Examples

I recenti progressi nel campo dell’Intelligenza Artificiale (IA) e del Machine Learning (ML) hanno portato a significativi avanzamenti in numerosi settori applicativi. Tuttavia, la ricerca ha evidenziato una classe di vulnerabilità intrinseca a questi sistemi: gli Adversarial Attacks. Questi attacchi sfruttano le peculiarità dei modelli ML per generare input appositamente modificati, denominati Adversarial Examples, che…

Adversarial Machine Learning – Aspetti Scientifici

Adversarial Machine Learning – Aspetti Scientifici

L’Adversarial Machine Learning rappresenta uno degli ambiti più complessi e stimolanti nel contesto della sicurezza dei sistemi di machine learning. Questo campo si caratterizza per la necessità di comprendere e mitigare le diverse tipologie di attacchi che possono compromettere l’integrità, la sicurezza e l’affidabilità dei modelli di apprendimento automatico. Tali attacchi rappresentano una sfida significativa…

Bias nell’Intelligenza Artificiale: Strategie e Norme ISO per la Valutazione e il Controllo

Bias nell’Intelligenza Artificiale: Strategie e Norme ISO per la Valutazione e il Controllo

I sistemi AI trovano ormai dilagante applicazione in ogni ambito della nostra vita e cultura attraverso, ad esempio, i modelli di Machine Learning (ML), ma, come molte volte accade, non si hanno informazioni chiare su come il modello abbia “imparato” e prodotto un determinato output. Ecco, quindi, come un sistema di gestione dedicato all’AI può…

Adversarial Attacks a Modelli di Machine Learning

Adversarial Attacks a Modelli di Machine Learning

“Adversarial Machine Learning”, “Adversarial Attacks”, “Adversarial Examples” e “Adversarial Robustness” sono termini che appaiono sempre più spesso quando si considerano aspetti di sicurezza dei modelli di Machine Learning (ML). Bug Hunting e Adversarial Examples Come pratica ormai consolidata nella sicurezza informatica, una nuova applicazione, sistema o servizio va prima o poi soggetto a delle verifiche…

Sicurezza informatica e cyber crime: cosa aspettarsi dal 2024

Sicurezza informatica e cyber crime: cosa aspettarsi dal 2024

In piena continuità con i precedenti, l’anno che sta per chiudersi registra un bilancio globale poco rassicurante sul fronte degli attacchi cyber. Oltre ai numerosi casi eclatanti con “vittime illustri” – come Federprivacy o più di recente la società PA Digitale, coinvolta nel massiccio attacco al fornitore di servizi cloud Walpole – volumi e portata…

Quali sono le soluzioni del presente e del futuro per contrastare gli attacchi informatici?

Quali sono le soluzioni del presente e del futuro per contrastare gli attacchi informatici?

Gli attacchi informatici rappresentano oggi una vera e propria piaga per le aziende e le istituzioni in tutto il mondo, oltre che per gli utenti. Questa minaccia digitale cresce in modo esponenziale, alimentata dall’evoluzione tecnologica e dalla crescente dipendenza della nostra società attuale dai servizi online. Sono milioni i malintenzionati che sfruttano, ogni giorno, le…

OpenText Cybersecurity Aviator: la potenza dell’AI per una difesa più rapida ed efficace

OpenText Cybersecurity Aviator: la potenza dell’AI per una difesa più rapida ed efficace

L’edizione annuale di OpenText World 2023 ha messo in risalto il valore cruciale dell’Intelligenza Artificiale (AI) nella roadmap di OpenText, con il lancio della nuovissima suite di soluzioni OpenText Aviator che mette a disposizione delle imprese le più sofisticate tecnologie di intelligenza artificiale e machine learning, per la creazione di sistemi di Information Management sicuri…

Un aiuto per l’audit AI

Un aiuto per l’audit AI

Come accennato nei precedenti articoli: E’ possibile una Governance e un Controllo dell’AI?; E’ possibile un controllo dell’Intelligenza Artificiale?; La Governance dell’AI attraverso le norme ISO; Ancora sulla Governance dell’AI; Un approccio alla Governance dell’AI; Modello di autovalutazione relativo a un sistema di Intelligenza Artificiale; il controllo sui sistemi AI è di fondamentale importanza per…

Machine Learning, “Deep Fake” ed i rischi in un mondo iperconnesso

Machine Learning, “Deep Fake” ed i rischi in un mondo iperconnesso

Negli ultimi anni l’importanza nella nostra società dell’informazione condivisa spesso in tempo reale, è cresciuta enormemente e con essa i rischi derivanti dalla diffusione di notizie incorrette e dalla manipolazione delle notizie. Ormai viviamo in un mondo iperconnesso ove le informazioni su quanto avviene sono condivise in tempo reale non solo tramite le agenzie di…