Manuel Roveri “Machine Learning e Homomorphic Encryption: Il Futuro dell'Intelligenza Artificiale Privacy-Preserving”, Forum ICT Security 2024

Intelligenza Artificiale Privacy Preserving: un Futuro per la Protezione dei Dati Sensibili

Durante il 22° Forum ICT Security, Manuel Roveri – Professore Ordinario presso il Politecnico di Milano e Co-founder di Dhiria s.r.l. – ha esplorato le prospettive future dell’Intelligenza Artificiale Privacy Preserving, con particolare enfasi sulle tecnologie emergenti per la tutela delle informazioni personali e aziendali. Nella relazione “Machine Learning e Homomorphic Encryption: Il Futuro dell’Intelligenza…

Jim Reavis – Cofondatore e Chief Executive Officer della Cloud Security Alliance (CSA) - AI Generativa, il suo impatto dirompente sulla Cybersecurity -

AI Generativa, il suo impatto dirompente sulla Cybersecurity

Durante il Forum ICT Security 2024, la presentazione “Generative AI’s Emerging Disruption of Cybersecurity” di Jim Reavis – Cofondatore e Chief Executive Officer della Cloud Security Alliance (CSA) – ha esplorato il ruolo cruciale dei professionisti della sicurezza informatica nel campo dell’AI generativa. La discussione ha incluso l’iniziativa in tema di AI security della CSA…

rischi Cyber al tempo dell’Intelligenza Artificiale

Valutare i rischi Cyber al tempo dell’Intelligenza Artificiale

I modelli di Intelligenza Artificiale (IA) e in particolare quelli di Machine Learning (ML), Predittivi, Generativi e “General Purpose” quali ad esempio i “Large Language Models” (LLM) come GPT, Bard/Gemini, LLaMA ecc., compaiono sempre più spesso all’interno delle applicazioni aziendali come componenti di applicazioni o per uso diretto. E’ necessario quindi valutare i rischi di…

Utilizzo dell’intelligenza artificiale nella cybersecurity dei sistemi industriali

Utilizzo dell’intelligenza artificiale nella cybersecurity dei sistemi industriali

L’articolo esplora come l’intelligenza artificiale stia influenzando la crescente sofisticazione degli attacchi cibernetici ai sistemi industriali nell’era dell’Industria 4.0, con un focus sui rischi che minacciano i sistemi di controllo industriale (ICS). Verranno analizzate le principali minacce informatiche che questi sistemi devono affrontare, mettendo in evidenza come l’adozione di tecnologie come l’intelligenza artificiale e l’Internet…

Aspetti tecnici degli Adversarial Examples

Aspetti tecnici degli Adversarial Examples

I recenti progressi nel campo dell’Intelligenza Artificiale (IA) e del Machine Learning (ML) hanno portato a significativi avanzamenti in numerosi settori applicativi. Tuttavia, la ricerca ha evidenziato una classe di vulnerabilità intrinseca a questi sistemi: gli Adversarial Attacks. Questi attacchi sfruttano le peculiarità dei modelli ML per generare input appositamente modificati, denominati Adversarial Examples, che…

Email Security e Intelligenza Artificiale

Email Security e Intelligenza Artificiale

Nei precedenti articoli, abbiamo esplorato in dettaglio vari aspetti della sicurezza delle email, trattando la “Struttura di una mail, Email secure gateway e relativo mail flow” e approfondendo “Email Security: I Protocolli di Sicurezza che garantiscono l’Autenticità, l’Integrità e la Riservatezza delle Comunicazioni“. Questi protocolli e strutture costituiscono il fondamento tecnico e operativo su cui…

Adversarial Machine Learning – Aspetti Scientifici

Adversarial Machine Learning – Aspetti Scientifici

L’Adversarial Machine Learning rappresenta uno degli ambiti più complessi e stimolanti nel contesto della sicurezza dei sistemi di machine learning. Questo campo si caratterizza per la necessità di comprendere e mitigare le diverse tipologie di attacchi che possono compromettere l’integrità, la sicurezza e l’affidabilità dei modelli di apprendimento automatico. Tali attacchi rappresentano una sfida significativa…

AIIA, lo strumento per una governance responsabile dell’Intelligenza Artificiale

AIIA, lo strumento per una governance responsabile dell’Intelligenza Artificiale

Nel contesto attuale, caratterizzato dalla crescente pervasività dell’Intelligenza Artificiale, agli iniziali entusiasmi per il potenziale innovativo di questa tecnologia stanno seguendo importanti riflessioni circa i suoi potenziali rischi. È noto come l’Artificial Intelligence Act dell’Unione Europea, approvato nel marzo 2024, abbia introdotto l’obbligo di condurre valutazioni d’impatto per i sistemi AI ritenuti “ad alto rischio”….

ISO/IEC 42001: un sistema di gestione dell’intelligenza artificiale

ISO/IEC 42001: un sistema di gestione dell’intelligenza artificiale

Lo standard ISO/IEC 42001:2023 offre un quadro normativo per l’integrazione responsabile dell’IA nelle organizzazioni. Fornisce linee guida per la valutazione dei rischi, l’implementazione di controlli efficaci e la gestione etica dei sistemi IA. Armonizzato con altri standard internazionali, promuove l’innovazione responsabile, la conformità normativa e la fiducia degli stakeholder, posizionando le organizzazioni come leader nell’IA…

Il problema del BIAS nei dataset e della XAI (eXplainable Artificial Intelligence)

Il problema del BIAS nei dataset e della XAI (eXplainable Artificial Intelligence)

L’Intelligenza Artificiale (IA) integra Machine Learning e Deep Learning per elaborare dati e generare previsioni. Esaminiamo i concetti fondamentali dell’IA, le sue applicazioni e le sfide etiche come privacy e BIAS, andando alla scoperta di soluzioni come XAI per contrastare pregiudizi negli algoritmi. Analizziamo poi l’impatto dell’IA sulla società, evidenziando l’importanza di un approccio equilibrato…