Più empatia e leggi contro l’hate speech

da | Gen 24, 2022 | Approfondimenti, Riflessioni e progetti della rete

Più empatia e più leggi per combattere lo hate speech

a cura di Silvia Brena e Giulia Giannessi

 

Dice Shoshana Zuboff, docente alla Business School di Harvard e una delle più fini e attente osservatrici del panorama web, che il successo di Facebook deriva “da operazioni architettate da dietro uno specchio unidirezionale per tenerci nell’ignoranza e avvolti in una nebbia di diversivi, eufemismi, menzogne”. Parla di Facebook, ma il panorama degli altri social non differisce di molto. L’alone di nebbia, noi di VoxDiritti, con il contributo di ben quattro università, stiamo cercando ormai da sette anni di alzarlo. Ma i risultati della Mappa dell’Intolleranza 6.0 dimostrano che purtroppo l’odio via social non scema. Diminuisce, è vero, il numero totale di tweet. Ma aumenta in modo esponenziale quello di tweet negativi. Segno di un fenomeno ormai in via di definitiva radicalizzazione. E quindi più difficile da arginare.

Conosciamo, anche dal lavoro svolto dalla Mappa, gli obiettivi degli hater. Le donne, innanzitutto. Colpite perché lavorano, perché vogliono costruirsi un’identità libera e indipendente, per il loro portato vitale. Intollerabile, evidentemente, per uomini (e anche donne) avvolti nei loro stereotipi, figli di assetti mentali abituati ad arginare la paura e le incognite del futuro con la riproposizione a qualsiasi costo di uno status quo, ancorato al passato. A qualsiasi costo. Perché un’altra cosa che sappiamo, e che anche la Mappa dell’Intolleranza in questi anni ha evidenziato, è che esiste un rapporto stretto tra hate speech ed hate crime. Ogni volta che sui social si alza lo sciame d’odio misogino, lì avvengono femminicidi.

Esiste e, se esiste, qual è il rapporto di causa-effetto che lega parole e crimini di odio? Oggi la sociologia della comunicazione parla di “sciame digitale” (la definizione è del filosofo coreano che vive in Germania Byung Chul Han), una sorta di brusio virtuale che agita la rete, spingendo le persone a condividere messaggi di odio. Come dire, lo sciame si agita e fa sì che offese e parole sin qui stigmatizzate a livello sociale, vengano liberate, liberando al contempo la carica di violenza che può portare all’atto. Lo studio più sorprendente a conferma della correlazione tra parole d’odio e crimini d’odio, è firmato da due ricercatori dell’uni­versità inglese di Warwick, Karsten Muller e Carlo Schwarz, che nel 2018 hanno evidenziato una forte correlazione tra i partiti di estrema destra, il sentimento anti migranti sui social in Germania e la diffusione di crimini violenti contro gli immigrati. I ricercatori hanno lavorato sul profilo Facebook di Alternative fur Deutschland (AFD), partito di estrema destra, e hanno comparato i contenuti del profilo con gli episodi di violenza contro i migranti, scoprendo che per ogni 4 post su Facebook che esprimevano forti sentimenti anti migranti, si verificava un’azione violenta contro gli stessi. Per supportare le loro ipotesi, i ricercatori hanno poi evi­denziato il fatto che in un’area con poche connessioni a internet, la correlazione si era dimostrata molto debole. Al termine dello studio, Muller e Schwarz hanno stimato che nel 2015 e nel 2016 i post anti migranti sul profilo Facebook della AFD abbiano contribuito ad aumentare del 13% il numero di attacchi violenti.

Sappiamo, dalla rilevazione di quest’anno, che un’altra categoria presa di mira sarebbero le persone con disabilità. Sappiamo anche che gli hater non è che ce l’abbiano proprio con i disabili. Ma usano le parole fruste e insultanti di un lessico osceno, nella sua mancanza di sguardo empatico, per prendersela con altre odiatissime categorie, i politici innanzitutto, definiti dementi, mongoloidi etc. Ma quale individuo dotato di umanità se la può prendere con chi soffre di una qualche forma di disabilità motoria/ fisica/ psichica o può usare parole denigratorie di tal guisa?

Ecco, appunto. Chi sono gli hater? Come sempre avviene nei fenomeni di radicalizzazione, è fuor di dubbio che ci sia una sorta di azione diretta di gruppi eversivi nel tentativo di “soffiare sul fuoco”. Lo abbiamo visto, le cronache lo stanno dimostrando, anche con il fenomeno No vax.

Ma c’è di più, come ci spiega la psicologia. Spiegano, gli psicologi, che ciò che accumuna gli hater è il bisogno di esternare l’odio. Si tratta di un bisogno primitivo, non elaborato, ma riversato su gruppi che culturalmente rappresentano ciò che è considerato debole o inferiore. Si tratta, spiegano sempre gli psicologi, di persone dal funzionamento psichico basato su dinamiche binarie: dentro-fuori, buono-cattivo, bianco-nero, uomo-donna, etero-omo. Persone, incapaci di fronteggiarsi con un panorama che muta e che per questo fa paura. Si grida di più perché si sa di essere di fronte a fenomeni e trasformazioni epocali che spaventano.

Da sempre le maggioranze, silenziose o rumorose, hanno avuto bisogno di confermare se stesse attraverso un capro espiatorio. Lo scelgono tra le cose che non capiscono e inconsciamente temono e considerano “deboli” o “contaminate”: di volta in volta le donne, le persone non eterosessuali, disabili, o di culture, religioni ed etnie non maggioritarie. Dalle ricerche sappiamo che alcune caratteristiche di personalità (sessismo, chiusura cognitiva, rigida adesione a ruoli di genere tradizionali) possono avere peso, ma non esauriscono la variabilità dei cosiddetti hater. Perché è l’incrocio perverso tra ansie e paure del futuro, motivazioni politiche e sociali che mirano a creare caos, e la cosiddetta variabile social ad aver prodotto il cortocircuito che lo hate speech rappresenta.

Esiste, e molte ricerche lo hanno dimostrato, una responsabilità specifica dei social nella diffusione dello hate speech. Da che abbiamo iniziato la rilevazione della Mappa dell’Intolleranza, molto è cambiato nel panorama in ebollizione di queste piattaforme. Ormai sappiamo molto, moltissimo, sui meccanismi che governano il nostro apparire sulle vetrine social. Sappiamo che c’è una specificità dei social non solo nella moltiplicazione, ma proprio nel fenomeno di creazione di gruppi chiusi a forte imprinting culturale. È il fenomeno delle echo chambers. Decine di studi, compresa la nostra Mappa, hanno dimostrato e stanno dimostrando che l’introduzione di un algoritmo capace di segmentare le communities sui social per ottenere profilazioni di dati sempre più efficaci e sofisticate, ha fatto sì che persone il cui corredo emotivo, psichico, culturale equivalesse, si ritrovassero a scambiarsi i loro convincimenti in una sorta di spazio virtuale che gli ha fatto da eco. Uno spazio virtuale, che può essere occupato, usato e manipolato da chi ha interesse a diffondere panico e rabbia. Gli psicologi parlano di bias dell’ingroup, di quegli elementi cioè che rafforzano i nostri pregiudizi. Vale a dire: se sono un terrapiattista e mi ritrovo in mezzo a una camera dell’eco con altri terrapiattisti, la mia visione del mondo non può che uscirne rafforzata. E io la rafforzerò, per poter far parte di quel gruppo. Così viaggiano i pregiudizi contro le donne che non devono lavorare e si devono sottomettere. E contro gli ebrei untori da secoli. E contro i musulmani, che sono tutti terroristi. Così viaggia la paura. E si alimenta. Perché sappiamo anche che gli algoritmi che governano i social cono stati pensati per scatenare emozioni forti: sappiamo che quegli stessi algoritmi favoriscono la diffusione di contenuti fortemente polarizzati (negativi o positivi). E che sono i contenuti fortemente polarizzati al negativo a essere premiati dagli algoritmi, perché scatenano una reazione più immeditata e producono quindi più like. In un bel libro inchiesta delle giornaliste americane Frenkel e Kang (Facebook, L’inchiesta finale) si dà conto di un esperimento segreto condotto da Facebook. Nel corso di una settimana nel 2012 i ricercatori alterarono ciò che circa 700mila utenti avrebbero visto accedendo alla piattaforma. Ad alcuni venivano mostrati contenuti esageratamente felici, ad altri tremendamente tristi. I risultati? Vedere post negativi spingeva gli utenti a esprimere atteggiamenti negativi nei loro stessi post. Mentre se gli utenti venivano a contatto con contenuti positivi, era probabile che a loro volta diffondessero post di segno positivo. La conclusione dei data scientist di Facebook? “Gli stati emotivi si possono trasferire agli altri per contagio, portando le persone a provare le stesse emozioni senza che se ne rendano conto”. Si chiama, anche, manipolazione.

Ma nell’esperimento condotto da Facebook, c’è anche la risposta per arginare lo hate speech. È ciò che si chiama contro- narrazione. O narrazione alternativa. Noi di VoxDiritti da anni entriamo nelle scuole per insegnare ai ragazzi, molti vittime o attori di cyberbullismo, a fronteggiare lo hate speech. Come? Lavorando innanzitutto sullo spettro positivo delle emozioni e dunque costruendo racconti di sé e del mondo, basati su empatia e positività. Non è buonismo, è una pulsione vitale. Serve, anche, a preservare la nostra specie dall’autodistruzione. Perché le parole cattive non solo feriscono, annientano a volte. Come dimostrano diversi studi, che parlano di ansia, depressione, disturbi da uso di sostanze, ideazione suicidaria in persone vittime di microaggressioni, quali lo hate speech.

E dunque, che fare? Innanzitutto, normare. Adesso basta. È ora di dirlo con voce chiara e forte. E poi. C’è un termine inglese che è balzato sul podio delle parole belle: to heal. Significa guarire. Quando Joe Biden ha vinto le elezioni contro il suo predecessore (odiatore seriale) Donald Trump, è stato chiamato dalla stampa americana The Healer. Non per le sue doti magiche di curandero. Ma per la sua capacità di ricucire gli strappi. Di sanare le ferite provocate da divisioni e fratture. Contro le parole dell’odio, affidiamoci al potere curativo delle parole che abbracciano, che leniscono, che uniscono.