Digital Services Act

da | Giu 7, 2022 | Approfondimenti, Riflessioni e progetti della rete

a cura del Gruppo Advocacy, con il contributo di No Hate Speech Movement

Può il Digital Services Act essere uno strumento per contrastare anche l’hate speech? È la domanda a cui la Rete ha cercato di rispondere in questo approfondimento. Le iniziative legislative proposte dalla Commissione Europea intendono colmare tutti quei vuoti normativi che permettono pratiche favorite dai mezzi digitali, per questo viene illustrato il processo che ha portato allo sviluppo del Digital Services Act, cosa si intende per servizi digitali, cosa comporta il provvedimento e quali sono le possibili criticità.

 

Digital Services Act. Uno strumento di contrasto (anche) all’hate speech?

Il Digital Services Act è un insieme di norme e regolamentazioni che racchiude due iniziative legislative proposte dalla Commissione Europea; il Digital Service Act e il Digital Market Act entrambi nati con due obiettivi principali:

  • Creare uno spazio digitale più sicuro all’interno del quale siano protetti i diritti fondamentali di tutti gli utenti di servizi digitali
  • Stabilire parità di condizioni che incentivino innovazione, crescita, competitività, sia all’interno del Mercato Singolo Europeo che a livello globale.

Questo pacchetto di leggi nasce dall’esigenza di colmare i numerosi vuoti normativi e cosiddetti loopholes che permettono la circolazione e la diffusione di beni, contenuti e servizi illegali, ma anche di pericolosi e lesivi per le persone, quali hate speech, disinformazione, cyberviolenza, truffe e pratiche di commercio fraudolente; tutte favorite dalla potenza e dalla capillarità dei mezzi digitali.
La proposta sottolinea infatti più volte il valore positivo e rivoluzionario di tali strumenti, ammettendone la centralità nella vita delle persone, sia per la loro socialità che per l’accessibilità a beni e servizi, ammettendo però anche l’impossibilità di gestirne l’espansione e l’incapacità di creare una cornice legislativa solida all’interno della quale regolamentare questi spazi, abitati da miliardi di persone che, oltre ad essere utenti e consumatori e consumatrici, sono innanzitutto cittadini e cittadine.
Con questa consapevolezza dunque, la Commissione Europea ambisce ad una regolamentazione solida e intende assumere un ruolo centrale in quanto garante della sua applicazione, per questo motivo queste due risoluzioni potrebbero rappresentare una svolta epocale nella gestione delle relazioni di potere tra i diversi stakeholder, che in quanto tale è seguita con estrema attenzione ed è stata generata da un processo lungo ed elaborato, iniziato nel dicembre 2020 e che è giunto nella sua fase finale solo negli scorsi mesi;  25 marzo 2022 per il Digital Market Act e 23 aprile 2022 per il Digital Service Act, ma vediamo nel dettaglio le vari fasi del processo.

Come si è sviluppato il Digital Services Act?

Il processo ha visto il coinvolgimento di diversi stakeholder da parte della Commissione Europea, in particolare il settore privato, la società civile, rappresentata da utenti e organizzazioni, autorità nazionali, l’accademia, la comunità tecnico-scientifica, associazioni internazionali e pubblico generalista, con tutte le parti interpellate tramite una serie di consultazioni pubbliche, svoltesi lungo tutta l’estate del 2020 e che è possibile trovare sul portale dedicato. A queste si sono accompagnati anche degli studi di analisi dell’impatto e osservazioni in tema di bilancio.
Dopo la presentazione nel 2020, l’accordo è stato finalmente raggiunto e ci si aspetta l’implementazione delle fasi successive, che prevedono l’applicazione del pacchetto entro 15 mesi dall’atto di adozione con la pubblicazione all’interno della Gazzetta Ufficiale e comunque non oltre il 1 Gennaio 2024.

Cosa comporta questo provvedimento?

Nel redigere le varie norme, la Commissione Europea ha chiarito che per “servizi digitali” intende una grande varietà di servizi, che vanno dai semplici siti web ai fornitori di infrastrutture telematiche più complesse, specificando però che per i seguenti provvedimenti le parti più interessate sono quelle che comunemente definiamo “piattaforme” e chi fornisce servizi intermediari, affermando che identifica tra queste delle piattaforme che ricoprono il ruolo di gatekeepers, “custodi” degli spazi digitali, in quanto svolgono un ruolo sistemico nel mercato interno e costituiscono una sorta di passaggio obbligato, che va a tracciare il percorso che unisce utenti e business per ciò che riguarda importanti servizi digitali. Per lo stesso motivo all’interno dei testi sono presenti anche le definizioni adottate per identificare diversi elementi (consumatore, destinatario del servizio, ecc.). Va però specificato che i due provvedimenti nascono con obiettivi specifici, per questo ci concentreremo sul Digital Service Act che è di estrema rilevanza per chi si occupa di contrastare l’odio online. La base di questo documento sono infatti i diritti fondamentali della persona, che nell’idea originale dovrebbero fungere da bussola per l’ideazione delle norme. Per questo si afferma che il provvedimento mira a:

  • Maggiore tutela dei diritti fondamentali
  • Minore esposizione a contenuti illegali
  • Certezza del diritto, armonizzazione delle norme
  • Parità di condizioni per escludere fornitori di contenuti illegali
  • Maggiore controllo democratico e vigilanza sulle piattaforme
  • Attenuazione dei rischi sistemici, quali la manipolazione o la disinformazione

Sono stati identificati diversi gruppi di beneficiari, che in quanto tali sono anche sottoposti ad obblighi diversi. In particolare si distingue tra: Servizi di intermediazione, Servizi di hosting, Piattaforme online e Piattaforme di grandi dimensioni, con queste ultime che presentano il maggior numero di obblighi. Essendo questi cumulativi infatti, le piattaforme di grandi dimensioni risultano le parti sottoposte a più responsabilità, in linea con l’idea che questa sia diretta conseguenza della spropositata mole di potere e risorse di cui dispongono. Tali provvedimenti sembrano dunque rappresentare uno storico cambiamento in termini di approcci e di relazioni di potere all’interno del panorama digitale, stabilendo la validità dei principi dello stato di diritto e della democrazia anche negli spazi online, equiparandoli a quelli offline in quanto spazi dove si esercitano leggi e diritti. L’introduzione di queste norme risponde dunque ad un’esigenza concreta di chi si batte per contrastare l’odio online, riconoscendo i rischi di questo fenomeno per l’incolumità delle persone e la responsabilità di chi ne permette la diffusione o addirittura beneficia di tali dinamiche per ragioni di profitto. Per la prima volta infatti si stabilisce che la pericolosità non risiede solo nell’attuazione delle violenze, quando queste cioè si verificano e generano danni, ma anche nell’esistenza delle condizioni tali affinchè queste possano generarsi, da qui dunque i provvedimenti contro disinformazione e fake news o per la creazione di consapevolezza, con un migliore e più capillare monitoraggio, con la menzione esplicita di maggiore trasparenza da parte delle piattaforme quando si tratta di moderazione dei contenuti e gestione degli algoritmi.
Per questo motivo è stata lanciata una tender da ben 2.5 milioni di euro con il solo scopo di formare un osservatorio digitale della commissione Europea.
In generale infatti l’intero pacchetto pone molta attenzione all’aspetto legislativo e regolamentare nei confronti delle grandi piattaforme, stabilendo multe e ammende salate.
Ammende fino al 10% del fatturato mondiale totale annuo dell’impresa, o fino al 20% in caso di violazioni ripetute; penalità di mora fino al 5% del fatturato medio giornaliero e, in caso di violazioni sistematiche degli obblighi, possono essere imposte ulteriori misure correttive a seguito di un’indagine di mercato. Tali misure correttive dovranno essere proporzionate al reato commesso. Se necessario e come opzione di ultima istanza, possono essere imposte misure correttive di carattere non finanziario, tra cui rimedi comportamentali e strutturali, quali l’obbligo di vendere un’attività o parti di essa.),
Oltre queste infatti, viene scritto esplicitamente che “Se l’indagine di mercato dimostra che il gatekeeper ha violato sistematicamente gli obblighi sanciti dagli articoli 5 e 6 e ha ulteriormente rafforzato o ampliato la sua posizione di gatekeeper in relazione alle caratteristiche di cui all’articolo 3, paragrafo 1, la Commissione può imporre a tale gatekeeper, mediante decisione adottata secondo la procedura consultiva di cui all’articolo 32, paragrafo 4, qualsiasi rimedio comportamentale o strutturale proporzionato alla violazione commessa e necessario per garantire il rispetto del presente regolamento. La Commissione conclude la propria indagine adottando una decisione entro dodici mesi dall’avvio dell’indagine di mercato.”
A questo proposito viene anche affermato che, “Al fine di garantire l’effettiva attuazione e il rispetto del presente regolamento, è opportuno che la Commissione disponga di forti poteri di indagine e di esecuzione che le consentano di indagare, applicare e monitorare le norme stabilite nel presente regolamento, garantendo nel contempo il rispetto del diritto fondamentale di essere ascoltato e di accedere al fascicolo nel contesto dei procedimenti di esecuzione. È opportuno che la Commissione disponga di tali poteri di indagine anche allo scopo di effettuare indagini di mercato ai fini dell’aggiornamento e del riesame del presente regolamento.”
Per questo motivo la Commissione si dimostra consapevole del fatto di dover investire nell’educazione e nello sviluppo di competenze al suo interno per essere in grado di svolgere al meglio questo ruolo, competenze sia in ambito tecnico ma anche legislativo; alcune fonti riportano infatti che c’è l’intenzione di impiegare almeno 150 persone che formino un team legale in grado di confrontarsi con le squadre a disposizione delle grandi piattaforme in caso di eventuali dispute. L’idea è che siano le piattaforme stesse a contribuire anche economicamente all’implementazione del piano, con il pagamento di una “tassa di supervisione” , che varia a seconda delle varie aziende e che dovrebbe rappresentare lo 0,1% del loro guadagno netto e che non include realtà no-profit o di ricerca (come Wikipedia ad esempio).
Il provvedimento è ancora in fase di discussione tra le parti ma sembrerebbe uno degli strumenti più efficaci per garantire l’implementazione delle norme.

Possibili criticità

L’insieme di norme sembra onnicomprensivo ed esaustivo, con intenti dir poco ambiziosi e basati sulla reale volontà di cambiare la rotta quando si tratta degli spazi online e di far sì che i principi dei diritti umani, della democrazia e dello stato di diritto siano applicati ovunque. Considerando però i temi affrontati e in particolare la volontà di agire non solo su contenuti violenti ma su contenuti che possano potenzialmente promuovere violenza e danneggiare le persone. con un intento dunque non solo riparativo ma preventivo, si affaccia l’ipotesi di diversi rischi, come denunciato da organi che si occupano di libertà di espressione e che si interrogano su come questi testi possano essere applicati in contesti dove lo stato di diritto, la democrazia e i diritti umani sono assenti a livello governativo. L’idea è che sia la Commissione a fare da garante attraverso anche un investimento sostanziale di risorse, il timore però è che tali risorse giungano solo ad una parte ristretta delle persone e delle realtà che dovrebbero beneficiare di questi provvedimenti, in quanto non viene menzionata esplicitamente la volontà di fornire strumenti di educazione e media literacy alla popolazione, anche se tra gli obiettivi c’è quello di aumentare la consapevolezza di utenti e consumatrici e consumatori.
Ci sono dunque moltissimi interrogativi sul “come” applicare queste norme che al momento vengono pubblicizzate come uno “strumento di giustizia”, “l’arma di cui avevamo bisogno per difenderci dallo strapotere delle piattaforme”, elemento di cui non possiamo che gioire in quanto realtà che si occupano di contrastare l’hate speech, poiché significherebbe intervenire su questioni di potere, che sono alla base della diffusione di tantissimi discorsi e fenomeni d’odio. Ciononostante è nostro dovere interrogarci su come queste norme possano e debbano servire ad educare la popolazione, non solo a punire e reprimere, altrimenti l’odio troverà modi alternativi e spazi nascosti in cui proliferare, dove sarà più difficile intercettarlo e contenerlo. Dobbiamo infatti fare in modo che questi provvedimenti siano in comunicazione e riconoscano gli altri sforzi e le altre dimensioni che operano in questo campo, facendo tesoro delle esperienze e delle competenze accumulate e di cui ad esempio, la recentissima Raccomandazione CM/Rec(2022)16 pubblicata dal Consiglio d’Europa ne è una perfetta rappresentazione.
Al momento infatti sembrerebbe che molte energie siano impiegate per l’aspetto giuridico e per le definizioni inerenti multe, ammende e misure cautelative, ma non altrettante per dare definizioni chiare di hate speech o di cosa rappresenta un rischio per la proliferazione di violenza e radicalizzazione, che appaiono come concetti vaghi e di cui si ha contezza essere pericolosi ma senza una reale contestualizzazione delle cause e delle conseguenze in maniera concreta.

Attendiamo però di assistere ai prossimi passi che accompagneranno il Digital Service Act e nel frattempo gioiamo della presa di posizione ancora più netta della Commissione Europea nei confronti dell’hate speech online.