Regolamento UE sui Servizi Digitali (DSA): responsabilizzazione delle piattaforme online
Il Regolamento UE sui Servizi Digitali (Digital Services Act, DSA) Regolamento (UE) 2022/2065 rappresenta una delle più importanti riforme nel settore digitale in Europa, con l’obiettivo di rendere le piattaforme online più responsabili e trasparenti. Il DSA, insieme al Digital Markets Act (DMA), fa parte di un pacchetto normativo volto a regolamentare il settore digitale per garantire un ambiente più sicuro, equo e competitivo. L’obiettivo finale è costruire un ecosistema digitale più sicuro e degno di fiducia, garantendo una protezione efficace dei diritti dei consumatori e contrastando la diffusione di contenuti, prodotti e servizi illegali, oltre a fenomeni dannosi legati al mondo digitale, come la disinformazione, l’incitamento all’odio e il cyberstalking.
Questa normativa introduce obblighi chiari per le piattaforme online, migliorando la protezione degli utenti e imponendo misure efficaci per contrastare la diffusione di contenuti illeciti e pericolosi.
Il regolamento, entrato in vigore nel novembre 2022, è applicabile a tutte le piattaforme digitali nell’Unione Europea dal 17 febbraio 2024, mentre per le piattaforme di grandissime dimensioni (VLOPs, Very Large Online Platforms) quelle con oltre 45 milioni di utenti attivi nell’UE alcuni obblighi erano già in vigore dal 25 agosto 2023. L’ampia portata di questa normativa coinvolge giganti del web come Google, Facebook, Twitter, TikTok e Amazon, ma anche piccole e medie piattaforme, ognuna con obblighi proporzionati alla propria dimensione e impatto.
DSA: obblighi di trasparenza per i fornitori di servizi online
Il DSA si applica a un’ampia gamma di aziende, che spaziano dai siti di informazione alle applicazioni, dai servizi di cloud e hosting alle piattaforme di economia collaborativa. Per questo motivo, il Regolamento suddivide i servizi digitali in quattro categorie principali e, oltre agli obblighi generali validi per tutte le piattaforme, stabilisce regole specifiche per ciascuna tipologia, aumentando progressivamente i requisiti in base all’incidenza e all’influenza di ogni servizio.
Uno degli aspetti centrali del DSA riguarda la trasparenza appunto delle piattaforme digitali e dei servizi online. Secondo quanto stabilito dal Regolamento, le piattaforme online, come i social network o i marketplace che permettono ai consumatori di stipulare contratti a distanza con operatori commerciali, sono quelle che non si limitano a conservare le informazioni fornite dagli utenti su loro richiesta, ma le rendono anche accessibili al pubblico su richiesta degli stessi utenti.
Il Digital Services Act (DSA) non si limita alle piattaforme online, ma si estende anche ai servizi di hosting, come i provider di cloud e i sistemi di gestione dei nomi di dominio, che facilitano la connessione degli utenti agli indirizzi web richiesti. Inoltre, la normativa si applica agli intermediari online, tra cui i fornitori di servizi Internet e di domini.
Il regolamento impone quindi alle aziende di garantire maggiore chiarezza sulle loro pratiche, policy e algoritmi, al fine di tutelare gli utenti e ridurre il rischio di abuso.
Tra gli obblighi principali, troviamo:
- Chiarezza sui termini e condizioni: i fornitori di servizi devono rendere chiari e comprensibili i loro termini di servizio, specificando in modo dettagliato le politiche di moderazione dei contenuti, le regole per la rimozione di contenuti e le misure adottate per contrastare la diffusione di contenuti illegali.
- Chiarezza sugli algoritmi di raccomandazione: piattaforme come YouTube, Instagram e TikTok devono fornire spiegazioni comprensibili su come funzionano gli algoritmi che determinano i contenuti mostrati agli utenti. Inoltre, devono offrire alternative basate su logiche non profilate, come il semplice ordine cronologico.
- Informazioni sulla pubblicità online: ogni annuncio pubblicitario deve essere chiaramente identificabile come tale e deve riportare informazioni su chi lo ha pagato e perché viene mostrato a un determinato utente. Infatti, le aziende dovranno compilare e rendere disponibile al pubblico un registro, accessibile in una sezione specifica della loro interfaccia online. Il registro deve contenere informazioni dettagliate sulla pubblicità, come il suo contenuto, la persona fisica o giuridica per conto della quale è stata pubblicata, il periodo di diffusione della pubblicità, e altri dettagli pertinenti (art. 39 DSA).
In particolare, l’articolo, che si concentra sulla “chiarezza della pubblicità online”, vieta l’uso di “tecniche di targeting o amplificazione che trattano, rivelano o inferiscono i dati personali di minori o persone vulnerabili per finalità pubblicitarie”.
- Accesso ai dati per i ricercatori: il DSA introduce un’importante misura per consentire ai ricercatori indipendenti di accedere ai dati delle piattaforme di grandi dimensioni per studiare fenomeni come la disinformazione, l’impatto dei social media sulle elezioni e la radicalizzazione online.
- Analizzare e valutare gli eventuali rischi sistemici in Ue derivanti dalla progettazione e dal funzionamento dei loro servizi e dei relativi sistemi (es. sistemi algoritmici) o dall’uso dei loro servizi (art. 34 DSA);
- Mettere in atto misure efficaci, proporzionate e ragionevoli per attenuare i rischi individuati a norma dell’art. 34 e prestando particolare attenzione agli effetti di tali misure sui diritti fondamentali (art. 35 DSA);
- Istituire una funzione di controllo della conformità indipendentedalle loro funzioni operative e composta da uno o più responsabili della conformità. Tale funzione di controllo della conformità dispone di autorità, status e risorse sufficienti per monitorare la conformità di tale fornitore al presente regolamento (art. 41 DSA).
Questi obblighi non si applicano però ai marketplace che offrono servizi esclusivamente a operatori commerciali classificati come microimprese o piccole imprese, secondo la definizione fornita dalla raccomandazione 2003/361/CE (art. 29).
L’obiettivo di queste misure è fornire agli utenti maggiore consapevolezza su come funzionano le piattaforme e limitare pratiche opache che potrebbero influenzare o condizionare il loro comportamento online.
Le piattaforme che violano il DSA possono essere soggette a sanzioni fino al 6% del loro fatturato annuo totale. Inoltre, i destinatari dei servizi digitali hanno il diritto di chiedere un risarcimento per danni o perdite subite a causa di violazioni commesse dalle piattaforme.
Tra i motivi che possono comportare sanzioni per le piattaforme includono:
- la fornitura di informazioni errate, incomplete o ingannevoli;
- la mancata correzione delle informazioni fornite;
- il rifiuto di sottoporsi ai controlli previsti.
In questi casi, come previsto dall’art. 42 del DSA, le sanzioni devono essere inferiori all’1% del reddito o del fatturato annuo.
Misure per contrastare la diffusione di contenuti illegali e dannosi
Un altro pilastro del DSA è rappresentato dalle norme volte a prevenire la diffusione di contenuti illegali e dannosi, proteggendo al contempo la libertà di espressione. Il regolamento stabilisce che le piattaforme online non sono responsabili dei contenuti pubblicati dagli utenti, ma hanno l’obbligo di rimuovere rapidamente i contenuti illegali una volta notificati.
Le misure principali in questo ambito includono:
- Obbligo di agire rapidamente contro i contenuti illegali: le piattaforme devono implementare sistemi efficaci per la segnalazione e rimozione di contenuti illegali, come incitamenti all’odio, materiale pedopornografico, vendita di prodotti contraffatti o contenuti terroristici.
- Segnalatori attendibili: il DSA introduce la figura dei “trusted flaggers”, ovvero entità riconosciute a livello nazionale che hanno il compito di segnalare contenuti problematici alle piattaforme, le quali devono dare loro priorità nelle revisioni.
- Misure proattive per ridurre i rischi sistemici: le piattaforme di grandissime dimensioni devono effettuare valutazioni annuali sui rischi legati alla disinformazione, alla manipolazione elettorale e alla sicurezza degli utenti, adottando strategie per mitigarli.
Il DSA, all’articolo 24, ha ribadito la priorità degli interessi dei minori rispetto a quelli commerciali e pubblicitari.
Il divieto di utilizzo dei dati dei minori per scopi commerciali era già previsto dalla direttiva UE 2018/1808 sui servizi audiovisivi, ma la novità introdotta dal DSA è che, oltre alle sanzioni posteriori, i danni potenziali per i minori devono essere inclusi nell’obbligo di valutazione dei rischi sistemici.
In particolare, le piattaforme sono tenute a effettuare valutazioni d’impatto sui rischi sistemici, che includano “eventuali effetti negativi sui diritti fondamentali, come il rispetto della vita privata e familiare, la libertà di espressione e di informazione, il diritto alla non discriminazione e i diritti dei minori, come sancito dagli articoli 7, 11, 21 e 24 della Carta dei Diritti Fondamentali dell’Unione Europea”.
Una delle sfide principali per l’attuazione di queste misure sarà però il bilanciamento tra la lotta ai contenuti dannosi e la tutela della libertà di espressione, evitando la censura preventiva e garantendo processi di moderazione più equi e trasparenti.
DSA: protezione degli utenti e meccanismi di reclamo
Il DSA introduce nuovi strumenti per proteggere i diritti degli utenti online, garantendo maggiore controllo sui contenuti che vedono e sui propri dati personali. Tra le innovazioni più rilevanti troviamo:
- Meccanismi di reclamo e ricorso: gli utenti che vedono i propri contenuti rimossi o il proprio account sospeso devono avere accesso a un sistema di ricorso extragiudiziale delle controversie efficace, con possibilità di contestare le decisioni prese dalle piattaforme. Secondo il DSA, infatti, chiunque utilizzi un servizio di intermediazione online ha il diritto di presentare un reclamo nei confronti del fornitore di tali servizi, qualora ritenga che la normativa venga violata. Il reclamo può essere presentato direttamente dall’utente, ma anche da organismi, associazioni o altre entità che agiscono per conto dell’utente, a condizione che soddisfino i requisiti stabiliti dall’articolo 86 del DSA.
Il reclamo deve essere redatto seguendo il modello reso disponibile sul sito dell’Agcom e inviato tramite PEC (posta elettronica certificata).
- Divieto di dark patterns: il regolamento vieta l’uso di interfacce manipolative che inducono gli utenti a compiere scelte non intenzionali, come l’iscrizione involontaria a servizi a pagamento o la difficoltà nel trovare il pulsante per cancellare un account.
- Limitazioni alla pubblicità mirata: il DSA pone restrizioni severe sulla pubblicità basata su dati personali sensibili, come l’orientamento politico o religioso.
La finalità è quella di rendere l’esperienza e la navigazione online più equa e sicura, limitando le pratiche ingannevoli e garantendo maggiore trasparenza.
Ruolo dei coordinatori dei servizi digitali a livello nazionale
Un’innovazione rilevante è l’istituzione di un’autorità nazionale di controllo per l’attuazione del Regolamento, denominata Coordinatore dei Servizi Digitali (Digital Services Coordinator, DSC) in ciascun Stato membro. Questo organo ha il compito non solo di svolgere un’azione persuasiva, ma anche di condurre indagini, garantire il rispetto delle norme e applicare eventuali sanzioni.
Per garantire l’applicazione efficace del DSA, infatti ogni Stato membro dell’UE è tenuto a designarne uno. In Italia, questo ruolo è stato assegnato all’Autorità per le Garanzie nelle Comunicazioni (AGCOM), che avrà il compito di monitorare l’applicazione del regolamento e di intervenire in caso di violazioni.
Il DSC avrà diverse responsabilità, tra cui:
- Supervisione e applicazione del regolamento: monitorerà le piattaforme per assicurarsi che rispettino gli obblighi del DSA.
- Gestione delle segnalazioni: riceverà e valuterà le segnalazioni di utenti e organizzazioni riguardanti violazioni delle norme.
- Certificazione degli organismi per la risoluzione delle controversie: garantirà che esistano meccanismi di ricorso indipendenti e accessibili per gli utenti.
- Saranno dotati di forti poteri investigativi ed esecutivi, per garantire il rispetto della DSA da parte dei provider stabiliti nel loro territorio: potranno ordinare ispezioni in caso di sospetta violazione della DSA, imporre multe alle piattaforme online che non rispettano la DSA e imporre misure provvisorie in caso di grave danno alla sfera pubblica.
- Esamineranno le candidature e conferiranno lo status di segnalatori di fiducia a soggetti idonei o a organizzazioni indipendenti che abbiano dimostrato competenza nell’individuare, riconoscere e segnalare contenuti illegali online.
Inoltre, i coordinatori nazionali collaboreranno con la Commissione Europea e con altri organismi regolatori attraverso il Comitato europeo per i servizi digitali. Questo comitato avrà il compito di garantire un’applicazione uniforme del DSA in tutta l’Unione Europea, assicurando che gli utenti godano degli stessi diritti a prescindere dalla sede delle piattaforme online.
Infine, il Comitato si occuperà della supervisione delle grandi piattaforme online e dei principali motori di ricerca, pubblicando annualmente rapporti sui principali rischi sistemici e sulle migliori strategie per mitigarli.
Vi è da segnalare per completezza, che un’altra figura introdotta dal Digital Services Act è il Compliance officer, designato dalle “very large online platforms” con il compito di monitorare l’osservanza del regolamento da parte delle aziende. Una figura interna all’impresa, con precise competenze professionali indicate dal DSA e l’obbligo di imparzialità e chiarezza nel giudizio.
Conclusioni
Il Digital Services Act rappresenta un passo fondamentale verso una maggiore regolamentazione del mondo digitale, ponendo un freno ai comportamenti irresponsabili delle grandi piattaforme e garantendo maggiore protezione agli utenti. Con misure innovative sulla trasparenza, sulla moderazione dei contenuti e sulla protezione dei dati, il DSA mira a creare uno spazio digitale più sicuro, equilibrato e concorrenziale.
Tuttavia, la sua implementazione sarà una sfida, richiedendo un equilibrio tra regolamentazione e libertà di espressione, oltre a un’efficace collaborazione tra governi, piattaforme e società civile. Il successo del DSA dipenderà dalla sua applicazione pratica e dalla capacità di adattarsi alle sfide future dell’ecosistema digitale in continua evoluzione.