Aspetti tecnici degli Adversarial Examples

Aspetti tecnici degli Adversarial Examples

I recenti progressi nel campo dell’Intelligenza Artificiale (IA) e del Machine Learning (ML) hanno portato a significativi avanzamenti in numerosi settori applicativi. Tuttavia, la ricerca ha evidenziato una classe di vulnerabilità intrinseca a questi sistemi: gli Adversarial Attacks. Questi attacchi sfruttano le peculiarità dei modelli ML per generare input appositamente modificati, denominati Adversarial Examples, che…

Email Security e Intelligenza Artificiale

Email Security e Intelligenza Artificiale

Nei precedenti articoli, abbiamo esplorato in dettaglio vari aspetti della sicurezza delle email, trattando la “Struttura di una mail, Email secure gateway e relativo mail flow” e approfondendo “Email Security: I Protocolli di Sicurezza che garantiscono l’Autenticità, l’Integrità e la Riservatezza delle Comunicazioni“. Questi protocolli e strutture costituiscono il fondamento tecnico e operativo su cui…

Adversarial Machine Learning – Aspetti Scientifici

Adversarial Machine Learning – Aspetti Scientifici

L’Adversarial Machine Learning rappresenta uno degli ambiti più complessi e stimolanti nel contesto della sicurezza dei sistemi di machine learning. Questo campo si caratterizza per la necessità di comprendere e mitigare le diverse tipologie di attacchi che possono compromettere l’integrità, la sicurezza e l’affidabilità dei modelli di apprendimento automatico. Tali attacchi rappresentano una sfida significativa…

AIIA, lo strumento per una governance responsabile dell’Intelligenza Artificiale

AIIA, lo strumento per una governance responsabile dell’Intelligenza Artificiale

L’AI Impact Assessment (AIIA) rappresenta uno strumento fondamentale per garantire un’adozione responsabile dell’Intelligenza Artificiale. In un contesto sempre più influenzato dalla pervasività delle tecnologie AI, l’AIIA permette di identificare, analizzare e mitigare i rischi associati ai sistemi automatizzati, assicurando il rispetto di principi etici e normativi. Dalla progettazione fino all’implementazione, questo processo iterativo promuove trasparenza,…

ISO/IEC 42001: un sistema di gestione dell’intelligenza artificiale

ISO/IEC 42001: un sistema di gestione dell’intelligenza artificiale

Lo standard ISO/IEC 42001:2023 offre un quadro normativo per l’integrazione responsabile dell’IA nelle organizzazioni. Fornisce linee guida per la valutazione dei rischi, l’implementazione di controlli efficaci e la gestione etica dei sistemi IA. Armonizzato con altri standard internazionali, promuove l’innovazione responsabile, la conformità normativa e la fiducia degli stakeholder, posizionando le organizzazioni come leader nell’IA…

Il problema del BIAS nei dataset e della XAI (eXplainable Artificial Intelligence)

Il problema del BIAS nei dataset e della XAI (eXplainable Artificial Intelligence)

L’Intelligenza Artificiale (IA) integra Machine Learning e Deep Learning per elaborare dati e generare previsioni. Esaminiamo i concetti fondamentali dell’IA, le sue applicazioni e le sfide etiche come privacy e BIAS, andando alla scoperta di soluzioni come XAI per contrastare pregiudizi negli algoritmi. Analizziamo poi l’impatto dell’IA sulla società, evidenziando l’importanza di un approccio equilibrato…

Schermata di un software di riconoscimento facciale di Clearview AI utilizzato dall'Ucraina per identificare agenti russi, supportando operazioni di sicurezza e contrasto alla disinformazione. La tecnologia AI raccoglie dati da social media come VKontakte, sollevando preoccupazioni sulla privacy

Clearview AI: Ucraina usa il riconoscimento facciale per combattere la Russia

Il software di facial recognition di Clearview AI, offerto gratuitamente all’Ucraina, utilizza l’intelligenza artificiale per identificare agenti russi, divenendo uno strumento chiave nella guerra. Con un database alimentato da oltre 2 miliardi di immagini, principalmente da VKontakte, il sistema supporta le autorità ucraine nel controllo dei checkpoint, nel ricongiungimento dei rifugiati, nel combattere la disinformazione…