Federated Learning e Sicurezza Distribuita

Federated Learning e Sicurezza Distribuita

Il Federated Learning (FL) si configura come un paradigma emergente e altamente promettente nell’ambito dell’apprendimento distribuito orientato alla privacy, consentendo a più entità di collaborare all’addestramento di modelli senza necessità di condividere i dati grezzi. Nonostante il FL integri meccanismi intrinseci di protezione della privacy, rimane suscettibile a una vasta gamma di minacce sia in…

Test di Sicurezza avanzati - Sicurezza e Compliance. Luva Compagna al Forum ICT Security

Test di Sicurezza avanzati – Sicurezza e Compliance, anime gemelle in un mondo digitale complesso

Nel corso del Forum ICT Security 2024, l’intervento “Test di sicurezza avanzati: La sicurezza va oltre la compliance” del Security Researcher Luca Compagna ha esplorato la relazione tra sicurezza e compliance nel contesto digitale. L’intervento ha approfondito l’importanza dell’analisi statica e dinamica nel testing del software, nonché i problemi di accuratezza degli strumenti di analisi…

Cybersecurity in Italia: sfide e opportunità secondo Luca Nicoletti dell'Agenzia per la Cybersicurezza Nazionale (ACN) - Cybersecurity in Italia

Cybersecurity in Italia: sfide e opportunità secondo l’Agenzia per la Cybersicurezza Nazionale (ACN)

Nell’intervento di apertura del 22° Forum ICT Security, Luca Nicoletti – Capo del Servizio Programmi Industriali, Tecnologici e di Ricerca dell’Agenzia per la Cybersicurezza Nazionale (ACN) – ha offerto un’analisi complessiva delle sfide e delle opportunità nel settore della cybersecurity in Italia. “Come paese e come continente, non possiamo più rimandare la spinta verso l’innovazione”…

deepfake

Deepfake, una reale minaccia alla cybersecurity

I deepfake rappresentano una minaccia emergente e complessa nell’ambito della sicurezza informatica, sfruttando le capacità avanzate dell’intelligenza artificiale (AI) per produrre contenuti multimediali manipolati con elevati livelli di realismo. Questa tecnologia si basa su algoritmi sofisticati e tecniche di machine learning che permettono di generare video, audio e immagini in cui il volto o la…

Cybersecurity trends 2026: il futuro della Sicurezza Digitale nell'Era dell'IA

Cybersecurity trends 2026: il futuro della Sicurezza Digitale nell’Era dell’IA

Cybersecurity trends 2026, quale futuro ci aspetta? La cybersecurity sta vivendo una trasformazione senza precedenti, trainata dall’intelligenza artificiale (IA) e dalla crescente complessità delle minacce digitali. Questa evoluzione richiede un approccio sempre più integrato alle tecnologie emergenti, come l’Internet of Things (IoT), il quantum computing e l’architettura Zero Trust. Il presente studio analizza le dinamiche…

Manuel Roveri “Machine Learning e Homomorphic Encryption: Il Futuro dell'Intelligenza Artificiale Privacy-Preserving”, Forum ICT Security 2024

Intelligenza Artificiale Privacy Preserving: un Futuro per la Protezione dei Dati Sensibili

Durante il 22° Forum ICT Security, Manuel Roveri – Professore Ordinario presso il Politecnico di Milano e Co-founder di Dhiria s.r.l. – ha esplorato le prospettive future dell’Intelligenza Artificiale Privacy Preserving, con particolare enfasi sulle tecnologie emergenti per la tutela delle informazioni personali e aziendali. Nella relazione “Machine Learning e Homomorphic Encryption: Il Futuro dell’Intelligenza…

Aspetti tecnici degli Adversarial Examples

Aspetti tecnici degli Adversarial Examples

I recenti progressi nel campo dell’Intelligenza Artificiale (IA) e del Machine Learning (ML) hanno portato a significativi avanzamenti in numerosi settori applicativi. Tuttavia, la ricerca ha evidenziato una classe di vulnerabilità intrinseca a questi sistemi: gli Adversarial Attacks. Questi attacchi sfruttano le peculiarità dei modelli ML per generare input appositamente modificati, denominati Adversarial Examples, che…

Adversarial Machine Learning – Aspetti Scientifici

Adversarial Machine Learning – Aspetti Scientifici

L’Adversarial Machine Learning rappresenta uno degli ambiti più complessi e stimolanti nel contesto della sicurezza dei sistemi di machine learning. Questo campo si caratterizza per la necessità di comprendere e mitigare le diverse tipologie di attacchi che possono compromettere l’integrità, la sicurezza e l’affidabilità dei modelli di apprendimento automatico. Tali attacchi rappresentano una sfida significativa…

Bias nell’Intelligenza Artificiale: Strategie e Norme ISO per la Valutazione e il Controllo

Bias nell’Intelligenza Artificiale: Strategie e Norme ISO per la Valutazione e il Controllo

I sistemi AI trovano ormai dilagante applicazione in ogni ambito della nostra vita e cultura attraverso, ad esempio, i modelli di Machine Learning (ML), ma, come molte volte accade, non si hanno informazioni chiare su come il modello abbia “imparato” e prodotto un determinato output. Ecco, quindi, come un sistema di gestione dedicato all’AI può…

Adversarial Attacks a Modelli di Machine Learning

Adversarial Attacks a Modelli di Machine Learning

“Adversarial Machine Learning”, “Adversarial Attacks”, “Adversarial Examples” e “Adversarial Robustness” sono termini che appaiono sempre più spesso quando si considerano aspetti di sicurezza dei modelli di Machine Learning (ML). Bug Hunting e Adversarial Examples Come pratica ormai consolidata nella sicurezza informatica, una nuova applicazione, sistema o servizio va prima o poi soggetto a delle verifiche…