Facebook viola i diritti umani palestinesi

Il rapporto, in uscita domani, ha detto che Facebook e Instagram hanno mostrato pregiudizi contro i palestinesi durante il brutale assalto israeliano alla striscia di Gaza lo scorso maggio.

Le politiche vocali di Facebook e Instagram hanno danneggiato i diritti umani fondamentali degli utenti palestinesi durante una conflagrazione che ha visto pesanti attacchi israeliani alla striscia di Gaza lo scorso maggio, secondo uno studio commissionato dalla compagnia madre dei siti del social media Meta.

"Le azioni di Meta nel maggio 2021 sembrano aver avuto un impatto negativo sui diritti umani ... degli utenti palestinesi alla libertà di espressione, alla libertà di assemblea, alla partecipazione politica e alla non discriminazione, e quindi alla capacità dei palestinesi di condividere informazioni e Intuizioni sulle loro esperienze man mano che si sono verificati ”, afferma il tanto atteso rapporto, ottenuto prima della sua pubblicazione. Commissionato da Meta lo scorso anno e condotto dall'attività di consulenza indipendente per la responsabilità sociale o BSR, il rapporto si concentra sulle pratiche di censura della società e le accuse di pregiudizio durante attacchi di violenza contro il popolo palestinese da parte delle forze israeliane la scorsa primavera. "Le azioni di Meta nel maggio 2021 sembrano aver avuto un impatto negativo sui diritti umani".

A seguito di proteste per lo sfratto forzato delle famiglie palestinesi del quartiere di Sheikh Jarrah a Gerusalemme Est la polizia israeliana si è accanita sui manifestanti in Israele e in Cisgiordania, e ha lanciato attacchi aerei militari contro Gaza che hanno ferito migliaia di palestinesi, uccidendone 256, tra cui 66 bambini [secondo le Nazioni Unite]. Molti palestinesi che tentavano di documentare e protestare contro la violenza usando Facebook e Instagram hanno trovato i loro post spontaneamente scomparsi senza ricorso, un fenomeno che l'indagine BSR tenta di spiegare. Il mese scorso, oltre una dozzina di gruppi di società civili e diritti umani hanno scritto una lettera aperta per protestare contro il ritardo di Meta nel rilasciare il rapporto, che la società si era originariamente impegnata a rilasciare nel "primo trimestre" dell'anno. Mentre BSR attribuisce a Meta di aver preso provvedimenti per migliorare le sue politiche, incolpa ulteriormente "una mancanza di supervisione in Meta che ha permesso errori politici di contenuto con conseguenze significative".

Sebbene BSR sia chiaro nell'affermare che Meta danneggia i diritti palestinesi con l'apparato di censura, il rapporto assolve Meta di "pregiudizi intenzionali". Piuttosto, BSR indica ciò che chiama "pregiudizio involontario", istanze "in cui la meta-politica e la pratica, combinate con una più ampia dinamica esterna, portano a diversi impatti sui diritti umani degli utenti di lingua palestinese e araba" - un cenno al fatto che questi sistemici difetti non sono affatto limitati agli eventi del maggio 2021. Meta ha risposto al rapporto BSR in un documento da diffondere insieme ai risultati. (Meta non ha risposto alla richiesta di Intercept di un commento sul rapporto in tempo per la pubblicazione.) In una nota a piè di pagina nella risposta, che è stata ottenuta anche da Intercept, la società ha scritto: "La pubblicazione di Meta di questa risposta non dovrebbe essere interpretata come una ammissione, accordo o accettazione di una qualsiasi delle conclusioni, opinioni o punti di vista identificati da BSR, né l'attuazione di eventuali riforme suggerite devono essere prese come ammissione di azioni illecite. "

Secondo i risultati del rapporto di BSR, i contenuti arabi Meta eliminati relativi alla violenza a un ritmo molto maggiore rispetto ai siti in lingua ebraica, confermano le lamentele di lunga data sulla'applicazione del linguaggio nel conflitto palestinese-israeliano: la disparità, il rapporto secondo cui è stata perpetuata tra i post esaminati sia dai dipendenti umani che dal software automatizzato. "I dati esaminati hanno indicato che il contenuto arabo aveva una più ampia applicazione (ad esempio, rimuovere erroneamente la voce palestinese) sulla base dell'utenza", afferma il rapporto. "I dati esaminati da BSR hanno anche mostrato che i tassi di rilevamento proattivi di potenziale violazione del contenuto arabo erano significativamente più alti rispetto ai tassi di rilevamento proattivi di potenziale violazione del contenuto ebraico."

BSR ha attribuito il trattamento molto diverso dei post palestinesi e israeliani agli stessi gruppi attivi nei differenti sistemi; informatori e ricercatori hanno tutti accusato i passati fallimenti umanitari dell'azienda: una triste mancanza di competenza. Meta, una società con oltre $ 24 miliardi di riserve in contanti, manca di personale che comprende altre culture, lingue e storie e sta usando una tecnologia algoritmica difettosa per governare i discorsi in tutto il mondo, ha concluso il rapporto BSR. Non solo gli utenti palestinesi affrontano uno screening algoritmico che gli utenti israeliani non subiscono - un "classificatore vocale ostile arabo" che utilizza l'apprendimento automatico per contrassegnare potenziali violazioni delle politiche non ha equivalenti ebraici. Il rapporto rileva che anche il sistema arabo non funziona bene : “I classificatori arabi sono probabilmente meno accurati per l'arabo palestinese rispetto ad altri dialetti. Inoltre il dialetto è meno comune e i dati di addestramento si basano sulle valutazioni dei revisori umani, probabilmente riproducendo gli errori dei revisori umani a causa della mancanza di competenza linguistica e culturale. " I dipendenti umani sembrano aver esacerbato gli effetti sbilenchi degli algoritmi di politica del linguaggio di Meta. "Potenzialmente violare i contenuti arabi potrebbe non essere stato indirizzato ai revisori dei contenuti che parlano o comprendono il dialetto specifico del contenuto", afferma il rapporto. Nota inoltre che Meta non aveva abbastanza personale arabo e di lingua ebraica per gestire il picco negli eventi. Questi difetti hanno avuto effetti a cascata, il rapporto continua. "Sulla base della revisione di BSR di biglietti e input da parte delle parti interessate interne, un problema chiave di sovrapposizione nel maggio 2021 si è verificato quando gli utenti hanno accumulato" falsi "colpi che hanno influito sulla visibilità e l'impegno dopo che i post sono stati erroneamente rimossi per violazione delle politiche di contenuto." In altre parole, la censura ingiusta ha generato un'ulteriore censura ingiusta, abbandonando chi era stato colpito a chiedersi perché nessuno poteva vedere i suoi post. "Gli impatti sui diritti umani ... di questi errori sono stati più gravi, dato il contesto in cui i diritti come la libertà di espressione, la libertà di associazione e la sicurezza erano di maggiore significato, specialmente per attivisti e giornalisti", afferma il rapporto.

Oltre ai fallimenti di Meta nel trattare i post su Sheik Jarrah, BSR cita anche il comportamento della società "Organizzazioni e individui pericolosi" - definita "DOI" nel rapporto - Un elenco di migliaia di persone e gruppi che i miliardi di utenti Meta non possono "lodare", "supportare" o "rappresentare". L'elenco completo, ottenuto e pubblicato da Intercept l'anno scorso, ha mostrato che la politica si concentra principalmente sulle entità musulmane e mediorientali, che i critici hanno descritto come come un libretto di istruzioni per la dimostrazione di pregiudizi etnici e religiosi. . Meta afferma che è legalmente costretto a censurare la menzione dei gruppi designati dal governo degli Stati Uniti, ma gli studiosi legali hanno contestato l'interpretazione della società delle leggi federali anti-terrorismo. Seguendo il rapporto di Intercept nell'elenco, il Brennan Center for Justice ha definito le affermazioni sull'obbligo legale della società una "false".

"La politica DOI di Meta e l'elenco hanno maggiori probabilità di avere un impatto sugli utenti palestinesi e di lingua araba, entrambi in base all'interpretazione di Meta degli obblighi legali e degli errori."

BSR concorda che la politica è sistematicamente distorta: “Le designazioni legali delle organizzazioni terroristiche in tutto il mondo hanno una attenzione sproporzionata su individui e organizzazioni che sono identificate come musulmani, entrambi basati sull'interpretazione di Meta degli obblighi legali e in errore. "I palestinesi sono particolarmente vulnerabili agli effetti della lista nera, secondo il rapporto: "I palestinesi hanno maggiori probabilità di violare la politica DOI di Meta a causa della presenza di Hamas come entità governativa a Gaza e candidati politici affiliati alle organizzazioni designate. Le violazioni del DOI presentano anche sanzioni particolarmente rapide, il che significa che i palestinesi hanno maggiori probabilità di affrontare conseguenze più rapide dell'applicazione della politica sia corretta che errata." Il documento si conclude con un elenco di 21 raccomandazioni politiche non vincolanti, tra cui un aumento della capacità di personale per comprendere ed elaborare adeguatamente i post arabi, implementare un algoritmo compatibile con l'ebraico, un aumento della supervisione dell'azienda dei moderatori esternalizzati e una maggiore trasparenza attorno al sistema DOI.

Nella sua risposta al rapporto, Meta vagamente si impegna ad attuare o considerare l'attuazione di aspetti e raccomandazioni. L'eccezione è un invito a "finanziare una ricerca pubblica sul rapporto ottimale tra gli obblighi di legge in materia di antiterrorismo e le politiche e le pratiche delle piattaforme di social media", che l'azienda dichiara di non voler perseguire perché non intende fornire indicazioni legali ad altre aziende. Piuttosto, Meta suggerisce che gli esperti interessati si rivolgano direttamente al governo federale.

Sam Biddle 22 settembre 2022

https://theintercept.com/2022/09/21/facebook-censorship-palestine-israel-algorithm/