Oltre a poter essere oggetto di attacchi comuni a qualunque applicazione IT, i modelli di Intelligenza Artificiale e Machine Learning possono essere oggetto anche di attacchi specifici, denominati “Adversarial Attacks”, che mirano a sfruttare debolezze degli algoritmi o del loro utilizzo per fini personali, nocivi o comunque non autorizzati o previsti. Per difendersi da questi attacchi è innanzitutto necessario conoscerli, così da individuare possibili scenari di attacco applicabili ai modelli AI/ML utilizzati e implementare le opportune misure di sicurezza a mitigazione dei rischi.