Facebook, Microsoft, Twitter e YouTube la scorsa primavera avevano deciso di aderire al «Codice di condotta e di autoregolamentazione per il contrasto dell’hate-speech online», promosso dalla Commissione Europea e di farlo con azioni efficaci e specifiche: la rimozione di post lesivi e offensivi, la diffusione a tutti agli utenti delle linee di condotta da tenere e, infine, impegnandosi entro le 24 ore successive alla segnalazione, a rimuovere tutti i contenuti ritenuti pericolosi o lesivi.
Cos’è successo da allora?
La Commissione Europea ha deciso di verificare con un primo monitoraggio l’effettiva applicazione del Codice di autoregolamentazione sottoscritto dai maggiori Social Newtwork mondiali affidando l’indagine a dodici organizzazioni in nove paesi europei; tra questi, per l’Italia, l’Ufficio nazionale antidiscriminazioni razziali, (Unar).
«In un mondo in cui il discorso d’odio e le aggressioni verbali stanno diventando, sempre di più, uno strumento di prevaricazione della libertà individuale e di aggressione ai sentimenti e alla dignità delle persone – ha ricordato il direttore dell’Unar, Francesco Spano –, non possiamo più permetterci di sottovalutare il fenomeno. L’Unar, con il proprio osservatorio sui media, sta lavorando da mesi per contrastare l’odio in rete, ma occorre un’alleanza tra le Istituzioni e le realtà economicamente e socialmente forti come Facebook», rilevava Spano solo qualche giorno fa, in occasione di un incontro, avvenuto il 30 novembre, con Richard Allan, vicepresidente Public Policy di Facebook in Europa, Medio Oriente e Africa e Laura Bononcini, responsabile delle Relazioni istituzionali di Facebook in Italia.
Tuttavia, nonostante i buoni propositi, l’indagine dell’Unar, pubblicata sul sito della Carta di Roma, ha fatto emergere dati poco confortanti: su 600 contenuti segnalati come inadeguati o dannosi e diffusi in rete, solo 169 sono stati davvero rimossi. Nella maggior parte dei casi erano discorsi d’odio indirizzati alla Comunità ebraica italiana; o discriminatori su base relativa alla nazionalità o alla religione di appartenenza.
I contenuti d’odio segnalati invece genericamente come hate-speech, nel 28.2% dei casi sono stati rimossi, ma solo nel 40% dei casi entro le 24 ore.
La «top three» del «target dell’odio» vede un 23.7% «dedicato» dunque alla Comunità ebraica; un 21% alle nazionalità diverse dalla locale e il 20.2% indirizzato all’Islam o, più in generale, verso tutti i musulmani.
Le segnalazioni italiane hanno riguardato in percentuali Facebook con un 45% e 270 denunce di riscontro d’odio; Twitter con un 27% e 163 segnalazioni; YouTube con il 21% e 123 contenuti considerati offensivi; altre piattaforme si sono attestate sul 7%.
Una classifica che cambia, se si guarda al numero di contenuti segnalati e poi rimossi: YouTube ha rimosso il 48.5% di post dannosi; Facebook il 28.3% e Twitter solo il 19.1%.
Complessivamente in Italia sono stati rimossi 169 contenuti preventivamente segnalati, pari al 28.2%. La percentuale di rimozioni varia anche da paese a paese, in Francia, ad esempio, è stato eliminato il 58.1% dei contenuti, in Germania il 52%, nel Regno Unito il 20.5% e in Austria l’11.4%. L’Italia è quella che registra il minor numero di contenuti rimossi con un 3.6%.
Infine, come già dicevamo solo nel 40% dei casi i contenuti segnalati sono stati analizzati e rimossi entro le 24 ore: facebook ha lavorato il 50% delle segnalazioni entro i tempi indicati dal Codice, YouTube il 60.8% e Twitter si è fermato al 23.5%.