Social media e odio online: pubblicato un importante studio

da | Apr 22, 2024 | Dati

Hate speech

Una ricerca pubblicata su Nature il mese scorso e condotta da un team di ricerca dell’Università Sapienza di Roma composto da Michele Avalle, Niccolò Di Marco, Gabriele Etta, Emanuele Sangiorgio, Shayan Alipour, Anita Bonetti, Lorenzo Alvisi, Matteo Cinelli, Walter Quattrociocchi, insieme ad Antonio Scala (CNR – Institute of Complex Systems) e Andrea Baronchelli (City University of London), ha preso in esame il fenomeno dei discorsi d’odio online, proponendo un importante approfondimento sulle dinamiche alla base della nascita e della diffusione del fenomeno. È un’ulteriore conferma della pervasività e della pericolosità della diffusione di hate speech anche in relazione alla diffusione di atteggiamenti antisociali, come del resto dimostrato anche dalle ricerche che molti soggetti della Rete nazionale per il contrasto ai discorsi e ai fenomeni di odio conducono da anni.

Lo studio pubblicato su Nature ha svolto un’analisi comparativa su diverse piattaforme (Facebook, Gab, Reddit, Telegram, Twitter, Usenet, Voat e YouTube), dimostrando come, indipendentemente dalla piattaforma e dall’argomento, i comportamenti tossici nascono e si diffondono in maniera simile e coerente.

Il linguaggio dannoso sui social media e i suoi effetti

Lo studio si è concentrato sull’esame del linguaggio “dannoso” sui social media e sul suo impatto, anche offline. Come sappiamo, gli algoritmi delle piattaforme social sono progettati per massimizzare il coinvolgimento degli utenti, ma questo può avere l’effetto collaterale di amplificare il linguaggio d’odio. Diventa quindi cruciale distinguere tra la personalità dell’utente e l’influenza della piattaforma nel promuovere modalità di interazione negative. I ricercatori hanno analizzato circa 500 milioni di commenti provenienti dalle varie piattaforme, su diversi argomenti e in un arco di tempo di tre decadi, a partire dal 1994. Hanno utilizzato la definizione di commento tossico fornita dall’API Perspective di Google, che lo descrive come “un commento scortese, irrispettoso o irragionevole che potrebbe indurre le persone ad abbandonare una discussione”. Sulla base di questa definizione, l’API assegna un punteggio di tossicità compreso tra 0 e 1, con 0,6 come soglia per considerare un commento tossico.

I risultati chiave della ricerca

Uno dei primi risultati significativi riguarda la durata delle conversazioni online: tende a diminuire il numero di utenti che vi partecipano man mano che la conversazione si evolve, ma coloro che rimangono diventano più attivi. Lo studio ha quindi esaminato la correlazione tra la durata delle conversazioni e la probabilità di incontrare commenti tossici. I risultati mostrano un aumento quasi universale, indicando che, indipendentemente dalla piattaforma e dall’argomento, le conversazioni più lunghe tendono ad essere più tossiche.

Inoltre, lo studio ha scoperto che gli individui non evitano necessariamente gli ambienti online in cui potrebbe scatenarsi una polemica. Le percentuali di abbandono di una conversazione sono risultate simili, indipendentemente dal fatto che emergessero commenti d’odio o meno.

Perché le persone partecipano a conversazioni d’odio sui social

La ricerca esplora anche i motivi per cui le persone partecipano a conversazioni online tossiche e perché le discussioni più lunghe tendono ad essere più velenose. Ecco alcune ragioni chiave:

  1. Argomenti controversi: quando emerge una controversia tra persone con opinioni opposte, i dibattiti si allungano, si intensificano e diventano più tossici. Questo è particolarmente vero quando utenti con diverse inclinazioni politiche interagiscono.
  2. Picchi di coinvolgimento: fattori come la riduzione del focus della discussione o l’intervento di troll (individui che cercano di infiammare intenzionalmente il dibattito) possono portare a un aumento degli scambi tossici.
  3. Mancanza di segnali non verbali e di presenza fisica: lo schermo agisce come uno scudo, rendendo più facile comportarsi in modo scortese o irrispettoso. Inoltre, abbandonare la conversazione online è molto più semplice che in un’interazione di persona, riducendo il senso di responsabilità.
  4. Echo chamber: tendiamo a cercare e accettare informazioni che supportano le nostre idee preesistenti, ignorando o escludendo prospettive contrastanti. Questo fenomeno contribuisce alla polarizzazione e può intensificare il linguaggio d’odio.

Lo studio smentisce anche l’idea che i commenti tossici che ricevono molti “mi piace” o che non vengono moderati incoraggino comportamenti simili. Non sono state trovate prove significative a sostegno di questa ipotesi.

Infine, i ricercatori sottolineano l’importanza di monitorare la polarizzazione tra gli utenti per intervenire precocemente nelle discussioni online, prima che sfocino nel linguaggio d’odio. Tuttavia, riconoscono anche che ci sono altre dinamiche in gioco, come la presenza di influencer, troll, aspetti culturali e demografici, che richiedono un’analisi separata.

La ricerca fornisce dunque approfondimenti preziosi sulle dinamiche dell’odio online e può aiutare a sviluppare strategie per mitigarne gli effetti dannosi. Comprendere i fattori che contribuiscono al linguaggio d’odio è infatti fondamentale per creare ambienti online più sani e rispettosi.