di Nathan Greppi
L’Oversight Board, organo indipendente presso cui si possono denunciare delle decisioni del gruppo Meta (di cui fanno parte Facebook, Instagram e Whatsapp), ha recentemente ribaltato una decisione dell’azienda in merito ad un post negazionista su Instagram. Il Board ha stabilito che “il contenuto viola gli standard comunitari di Meta sui discorsi d’odio, che proibiscono il negazionismo della Shoah”.
Come riporta il Jerusalem Post, il caso riguarda un meme postato in forma anonima l’8 settembre 2020, in cui si vedeva Squiddi, celebre personaggio della serie animata per bambini SpongeBob, negare i numeri ufficiali delle vittime della Shoah. Nonostante violasse le regole di Meta contro il negazionismo, diventate ancora più rigide dopo il cambiamento di policy del 12 ottobre 2020, il contenuto rimase in rete dopo un processo di verifica da parte sia degli algoritmi che dei controllori umani.
Il Board ha dichiarato in una sua analisi che le politiche di moderazione di Meta hanno fallito nel loro compito di identificare e rimuovere quei contenuti che veicolano i discorsi d’odio, in particolare per quel che concerne il negazionismo della Shoah. Ha altresì invitato la compagnia a rendere più efficaci e accurati i propri sistemi per moderare i contenuti.
La decisione dell’Oversight Board ha creato un precedente positivo nella lotta all’antisemitismo sui social, in quanto finora era raro che una decisione di Meta di lasciare dei contenuti liberi di circolare venisse ribaltata.
Anche per questo ha ricevuto il plauso di Yfat Barak-Cheney, responsabile per la tecnologia e i diritti umani del World Jewish Congress, il quale martedì 23 gennaio ha dichiarato: “Il World Jewish Congress accoglie con favore la decisione dell’Oversight Board di Meta di ribaltare la posizione originale della compagnia in merito ad un post di Instagram contenente affermazioni false e fuorvianti sulla Shoah. Questa decisione, in linea con il dichiarato intento del Board di combattere i discorsi d’odio, è un passo significativo nel riconoscere e affrontare la preoccupante e continua presenza del negazionismo della Shoah sulle piattaforme Meta”.
Ha definito “problematiche” le scoperte dell’organo sull’inefficienza di Meta nel riconoscere e rimuovere i contenuti negazionisti, aggiungendo: “Chiediamo a Meta di usare questa decisione come catalizzatore per il cambiamento, adottando un approccio più consistente nel monitorare e rafforzare le sue politiche sui discorsi d’odio”.