Social media

Antisemitismo, pregiudizio, estremismo e fanatismo: la responsabilità delle piattaforme tecnologiche in un nuovo studio dell’ADL

Mondo

di Redazione
«Di male in peggio: amplificazione e autogenerazione dell’odio»: è il titolo del rapporto pubblicato in questi giorni da ADL (Anti-Defamation League), leader globale nella lotta contro l’odio diffuso in tutto il mondo. Fondata nel lontano 1913 con l’obiettivo di «fermare la diffamazione del popolo ebraico e garantire giustizia e trattamento equo per tutti», l’ADL continua oggi a combattere con impegno e perseveranza ogni forma di antisemitismo, pregiudizio, estremismo e fanatismo, ovunque e in ogni circostanza. Si tratta di una missione autentica, volta a preservare la democrazia e a garantire una società giusta e inclusiva per tutti.

La proliferazione di antisemitismo, odio ed estremismo online non è certo una novità ed è un argomento di discussione accesa da anni. La domanda cruciale è se i feed digitali – ovvero il flusso continuo di contenuti, aggiornamenti e informazioni che gli utenti vedono scorrere sulla propria pagina – siano davvero uno specchio della società oppure se siano le piattaforme dei social media e le aziende tecnologiche a peggiorare la situazione con contenuti virulenti. Le aziende sostengono che siano gli stessi utenti i principali responsabili dei contenuti corrosivi che emergono in cima ai feed di notizie e si diffondono tra le piattaforme. Un argomento che serve a scagionare queste aziende miliardarie dalla responsabilità per qualsiasi ruolo che i loro prodotti stessi svolgono nell’accentuare l’odio.

Due nuovi studi condotti dall’Adl e TTP (Tech Transparency Project), hanno evidenziato come alcune delle principali piattaforme di social media e motori di ricerca possano contribuire all’antisemitismo, all’odio e all’estremismo online attraverso i loro strumenti e, in alcuni casi, generando contenuti problematici. Anche se ci sono molte ragioni dietro l’odio online, come per esempio il comportamento degli utenti, questi studi dimostrano che tali aziende stanno peggiorando la situazione.

Nel rapporto si legge quanto segue: «Abbiamo creato personaggi maschili, femminili e adolescenti (senza un genere specifico) e testato come gli algoritmi di quattro grandi piattaforme di social media raccomandassero contenuti. Nel primo studio, tre piattaforme su quattro hanno suggerito contenuti ancor più estremi, antisemiti e pieni d’odio. Solo YouTube ha reagito senza cedere a contenuti antisemiti. Questo dimostra che la questione non riguarda solo la dimensione o la capacità delle piattaforme».

Nel secondo studio sono state esaminate le funzioni di ricerca di tre aziende. Queste rendono facile trovare contenuti e gruppi di incitamento all’odio, completando automaticamente i termini e in alcuni casi generando persino contenuti offensivi. Queste stesse aziende, tuttavia, non completano automaticamente termini o generano contenuti simili per altri tipi di materiale offensivo come la pornografia. Ciò dimostra ancora una volta che il problema non è solo una questione di dimensione o di capacità.

In sostanza, questi studi rivelano che le aziende tecnologiche hanno il potere di agire. Ossia possono decidere cosa è importante, anche quando si tratta di migliorare gli algoritmi e le caratteristiche che amplificano l’antisemitismo e l’estremismo, anziché ridurli. Mentre ci sono discussioni in corso tra legislatori, regolatori e giudici riguardo all’intelligenza artificiale, alla trasparenza delle piattaforme e alla responsabilità degli intermediari, questi studi sottolineano l’urgenza di un intervento sia da parte delle piattaforme che dei governi.

Cosa si può fare

In base ai risultati ottenuti, queste sono dunque le tre raccomandazioni concrete per l’industria e il governo elencate nel rapporto:

Le aziende tecnologiche devono correggere le caratteristiche dei loro prodotti che contribuiscono all’antisemitismo e generano odio ed estremismo in modo automatico. Devono ottimizzare gli algoritmi e le raccomandazioni per evitare di guidare gli utenti verso contenuti pieni di odio e antisemitismo. Inoltre, dovrebbero migliorare le funzionalità di completamento automatico e smettere di generare automaticamente contenuti offensivi.

Il Congresso dovrebbe inoltre aggiornare la Sezione 230 del Communications Decency Act per adattarla alla realtà attuale di Internet. Questa legge offre una vasta immunità legale alle piattaforme online, anche quando i loro strumenti contribuiscono all’odio e all’estremismo. Aggiornarla consentirebbe di definire meglio cosa dovrebbe essere coperto e cosa no, spingendo le piattaforme a prendere misure proattive per affrontare l’effetto negativo dei loro algoritmi e delle loro pratiche pubblicitarie: «Dobbiamo avere maggiore trasparenza – si legge sempre nel rapporto –. Gli utenti devono sapere come funzionano le raccomandazioni delle piattaforme. Questo non richiede la divulgazione di segreti commerciali, ma piuttosto un’apertura da parte delle aziende su ciò che viene mostrato e il motivo. Anche il governo può svolgere un ruolo in tutto ciò, come dimostrato dalla legislazione sulla trasparenza in California. Tuttavia, c’è ancora molto da fare. Il Congresso dovrebbe varare una legge federale sulla trasparenza per garantire che il pubblico, i ricercatori e la società civile abbiano le informazioni necessarie per valutare l’impatto delle decisioni aziendali sul nostro mondo digitale.

Con l’odio in aumento e l’antisemitismo sempre più diffuso online e offline, è essenziale affrontare il problema. Le aziende tecnologiche devono riconoscere il loro ruolo e agire di conseguenza. Che tu sia coinvolto nel governo o nell’industria, un cittadino digitale attento o un sostenitore della tecnologia, questi studi offrono spunti importanti. Non esiste una soluzione unica per risolvere l’odio e l’antisemitismo online, ma possiamo e dobbiamo fare di più per creare un Internet più sicuro e rispettoso».

Firmato:  Yaёl Eisenstat, Vicepresidente ADL Center for Technology and Society Katie Paul, Direttore Tech Transparency Project

 

Scarica i Report:

–         Studio di ricerca Numero1: Amplificazione algoritmica dell’antisemitismo e dell’estremismo 7,48MB – Scarica risorsa

–         Studio di ricerca Numero 2: Odio che si autogenera e si completa automaticamente 7,02 MB –  Scarica risorsa