Facebook mostra imagens explícitas da Ucrânia e censura Palestina

Facebook mostra imagens explícitas da Ucrânia e censura Palestina

EM SETEMBRO, DEPOIS de uma série de ataques aéreos israelenses contra a Faixa de Gaza, uma região densamente povoada, palestinos protestaram contra a exclusão abrupta de postagens no Facebook e no Instagram que documentavam a destruição e as mortes provocadas pela operação. Não foi a primeira vez que usuários palestinos das duas plataformas – gigantes pertencentes à empresa-mãe Meta – reclamaram de posts indevidamente removidos. Tornou-se um padrão: após publicações palestinas de imagens e vídeos explícitos de ataques israelenses, a Meta rapidamente remove o conteúdo, fornecendo apenas uma referência indireta à violação dos “padrões da comunidade” da empresa ou, em muitos casos, nenhuma explicação.

No entanto, nem todos os bilhões de usuários das plataformas da Meta deparam com essas questões quando documentam bombardeios em seus bairros.

Memorandos inéditos obtidos pelo Intercept mostram que em 2022 a Meta instruiu repetidamente seus moderadores a contornarem o procedimento padrão e tratarem várias imagens explícitas da guerra Rússia-Ucrânia de modo mais flexível. Como outras empresas de internet dos EUA, a Meta respondeu à invasão promulgando imediatamente uma série de novas políticas projetadas para ampliar e proteger a expressão online dos ucranianos, permitindo que imagens explícitas de civis mortos por militares russos permanecessem no Instagram e no Facebook.

Flexibilizações semelhantes não ocorreram para vítimas palestinas da violência de Estado israelense – os memorandos não indicam medidas desse tipo a qualquer outra população em sofrimento.

“É uma censura deliberada da documentação dos direitos humanos e da narrativa palestina.”

“É uma censura deliberada da documentação dos direitos humanos e da narrativa palestina”, afirmou Mona Shtaya, consultora do 7amleh – Centro Árabe para o Avanço das Mídias Sociais, um grupo da sociedade civil que colabora com a Meta. Nos recentes ataques israelenses a Gaza, entre os dias 5 e 15 de agosto, o 7amleh registrou quase 90 exclusões de conteúdo e suspensões de contas nas plataformas da Meta relacionadas a bombardeios. A entidade aponta que segue recebendo relatos de conteúdos censurados.

Marwa Fatafta, gerente de políticas para o Oriente Médio e o Norte da África do Access Now, um grupo internacional de direitos digitais, disse: “A censura deles funciona quase como um relógio – sempre que a violência no território cresce, aumenta a remoção do conteúdo palestino”.

Censuras a conteúdos palestinos revisadas pelo Intercept incluem a remoção, em 5 de agosto, de uma postagem de luto pela morte de Alaa Qaddoum, uma menina palestina de 5 anos, morta em um ataque de mísseis israelenses, e um vídeo no Instagram mostrando moradores de Gaza que retiravam corpos de escombros. Ambas as postagens foram removidas com um aviso de que as imagens “vão contra nossas diretrizes sobre violência ou organizações perigosas” – uma referência à política da Meta contra conteúdo violento ou informações relacionadas à sua vasta lista de pessoas e grupos banidos.

Porta-voz da Meta, Erica Sackin contou ao Intercept que essas duas postagens foram removidas de acordo com a política de Indivíduos e Organizações Perigosas da empresa, a política de censura de conteúdos que promovam grupos terroristas segundo governos federais. Sackin não respondeu a uma pergunta posterior sobre como as imagens de uma menina de 5 anos e de um homem enterrado em escombros promovem o terrorismo.

Palestinos em Gaza que postam sobre ataques israelenses disseram que suas publicações não contêm mensagens políticas nem indicam qualquer afiliação com grupos terroristas. “Estou apenas postando notícias puras sobre o que está acontecendo”, disse Issam Adwan, jornalista freelancer que vive em Gaza. “Nem estou usando uma linguagem com viés muito palestino: estou descrevendo aviões israelenses como aviões israelenses, não estou dizendo que sou defensor do Hamas ou coisas do tipo.”

ATIVISTAS DE DIREITOS HUMANOS afirmaram ao Intercept que as isenções concedidas à guerra Rússia-Ucrânia são o exemplo mais recente de um padrão duplo da Meta em relação aos mercados ocidentais e ao resto do mundo – evidência de um tratamento especial à causa ucraniana por parte da Meta desde o início da guerra, algo que pôde ser percebido na cobertura da guerra de forma mais ampla.

A maioria dos usuários de plataformas sociais de propriedade da Meta vivem fora dos EUA. Entretanto, segundo críticos, as políticas de censura da empresa afetam bilhões em todo o mundo e indicam um alinhamento metódico com os interesses da política externa dos EUA. Os ativistas enfatizam a natureza política dessas decisões de moderação. “A Meta foi capaz de tomar medidas muito rígidas para proteger os ucranianos em meio à invasão russa porque tinha vontade política”, disse Shtaya, “mas nós, palestinos, não testemunhamos nada dessas medidas”.

Ao seguir diretrizes do governo norte-americano – incluindo listas de bloqueio de contraterrorismo –, a Meta pode acabar censurando declarações totalmente não violentas de apoio ou simpatia aos palestinos, segundo uma declaração de 2021 publicada pela Human Rights Watch. “Esse é um exemplo bastante claro de onde isso está acontecendo”, disse Omar Shakir, diretor da Human Rights Watch para Israel e Palestina, referindo-se às remoções de agosto. Enquanto o relatório da Human Rights Watch sobre a recente censura aos ataques em Gaza ainda estava em andamento, Shakir disse já observar que a Meta estava mais uma vez censurando discursos palestinos e pró-palestinos, incluindo a documentação de abusos de direitos humanos.

Não está claro qual faceta específica do sistema de censura global bizantino da Meta foi responsável pela onda de censura das postagens de Gaza no mês passado. Muitos usuários não receberam informações significativas sobre o motivo pelo qual suas postagens foram excluídas. A porta-voz da Meta se recusou a detalhar quais outras políticas foram usadas. Remoções anteriores de conteúdo palestino citaram não apenas a política de Indivíduos e Organizações Perigosas, mas também as proibições da empresa contra imagens de violência, símbolos e discursos de ódio. Como é o caso das outras políticas de conteúdo da Meta, a proibição de conteúdo violento e explícito às vezes pode engolir postagens que apenas compartilham a realidade das crises globais sem glorificá-las – situação contra a qual a empresa tomou medidas sem precedentes na guerra Rússia-Ucrânia.

As regras de padrões da comunidade voltadas ao público da Meta detalham: “Removemos conteúdo que glorifica a violência ou celebra o sofrimento ou a humilhação de outras pessoas porque isso pode criar um ambiente que desencoraja a participação” – observando uma vaga exceção para “conteúdo explícito (com algumas limitações) para ajudar as pessoas a ampliarem a conscientização sobre esses problemas”. A política de conteúdo violento e explícito impõe uma proibição geral a vídeos que mostrem cadáveres e permite a visualização de imagens estáticas semelhantes somente para maiores de 18 anos.

Em uma versão interna expandida do guia de Padrões da Comunidade obtida pelo Intercept, a seção que trata de conteúdo explícito inclui uma série de memorandos de políticas que orientam os moderadores a contornarem regras ou adotarem um escrutínio adicional para lidar com certas notícias urgentes. Uma revisão dessas exceções mostra que, imediatamente após a invasão, a Meta orientou seus moderadores a garantir que imagens explícitas de civis ucranianos mortos em ataques russos não fossem excluídas em sete ocasiões. A lista contém atos de violência estatal semelhantes aos rotineiramente censurados quando conduzidos por militares israelenses, incluindo várias referências específicas a ataques aéreos.

De acordo com o material interno, a Meta começou a instruir seus moderadores a contornarem práticas padrão, com o objetivo de preservar a documentação da invasão russa, desde o segundo dia da guerra. Uma atualização da política em 25 de fevereiro instruiu os moderadores a não excluírem o vídeo de algumas das primeiras vítimas civis. “Esse vídeo mostra as consequências dos ataques aéreos na cidade de Uman, na Ucrânia”, diz o memorando. “Com 0,5 segundo, vísceras são visíveis. Estamos permitindo uma concessão MAD a esse vídeo” – a sigla em inglês (Mark As Disturbing) faz referência à prática da empresa de “marcar como perturbador” ou anexar um aviso a uma imagem ou vídeo em vez de excluí-los imediatamente.

“Sempre foi uma questão de geopolítica e lucro para a Meta”

Em 5 de março, os moderadores foram instruídos a “MAD [marcar como perturbador] vídeo retratando brevemente pessoas ligeiramente mutiladas após ataques aéreos em Chernigov” – observando novamente que os moderadores deveriam contornar as regras. “Embora o vídeo retratando pessoas desmembradas fora de um ambiente médico seja proibido por nossa política de conteúdo violento e explícito”, diz o memorando, “as imagens dos indivíduos são breves e parecem estar em um contexto de conscientização postado por sobreviventes do ataque com mísseis.”

As exceções de violência explícita são apenas uma das muitas maneiras pelas quais a Meta ajustou rapidamente suas práticas de moderação para acomodar a resistência ucraniana. No início da invasão, a empresa deu o raro passo de retirar restrições de discurso em torno do Batalhão Azov, uma unidade neonazista das forças armadas ucranianas anteriormente proibida pela política de Indivíduos e Organizações Perigosas da empresa. Em março, a Reuters informou que a Meta permitiu temporariamente que os usuários pedissem a morte de soldados russos, um discurso que normalmente também violaria as regras da empresa.

Os defensores de direitos humanos enfatizaram que sua queixa não é contra proteções adicionais aos ucranianos, mas contra a ausência de medidas especiais semelhantes para proteger civis sitiados do aparato de censura errático da Meta.

“Os direitos humanos não são um exercício de escolha”, disse Fatafta. “É bom que tenham sido tomadas medidas tão importantes para a Ucrânia, mas o fracasso em fazê-lo para a Palestina enfatiza ainda mais sua abordagem discriminatória em relação à moderação de conteúdo. Sempre foi uma questão de geopolítica e lucro para a Meta.”

NUNCA É EXPLICADO publicamente – nem no material interno revisado pelo Intercept – como a Meta decide quais postagens estão celebrando a morte em tempos de guerra e quais aumentam a conscientização sobre essas situações.

Uma postagem de janeiro de 2022 da Meta observa que a empresa usa um “teste de equilíbrio que pesa o interesse público contra o risco de dano” para conteúdos que normalmente violariam regras da empresa, mas não fornece informações sobre o que esse teste realmente envolve ou quem o conduz. Se uma tentativa de documentar atrocidades ou lamentar um vizinho morto em um ataque aéreo é considerada glorificação ou interesse público, trata-se de um julgamento subjetivo que cabe a moderadores terceirizados da Meta – sobrecarregados e, às vezes, traumatizados, responsáveis por tomar centenas de decisões desse tipo todos os dias.

Poucas pessoas contestariam que as imagens da invasão russa descritas nas atualizações da política do Meta têm valor de notícia, mas os documentos obtidos pelo Intercept mostram que a lista menos restritiva relacionada ao material simpático à Ucrânia incluiu propaganda estatal explícita.

Os documentos apontam que, em várias situações, vídeos de propaganda do Estado ucraniano que destacam a violência russa contra civis passaram a integrar a lista de permissões, incluindo o filme “Close the Sky”, carregado de emoção, que o presidente ucraniano Volodymyr Zelensky apresentou em março ao Congresso do EUA. “Embora o vídeo que retrata humanos mutilados fora de um ambiente médico seja proibido pela política de VGC, as imagens compartilhadas estão em um contexto de conscientização postado pelo presidente da Ucrânia”, afirma uma atualização de 24 de março distribuída aos moderadores.

Em 13 de maio, os moderadores foram instruídos a não excluírem um vídeo postado pelo Ministério da Defesa ucraniano que apresentava imagens explícitas de cadáveres queimados. “O vídeo mostra brevemente um corpo carbonizado, não identificado, deitado no chão”, diz a atualização. “Embora vídeos que mostrem pessoas carbonizadas ou em chamas sejam proibidos por nossa política de conteúdo violento e explícito… a gravação é breve e qualificada para uma exceção de valor de notícia pelas diretrizes da OCP por documentar um conflito armado em andamento.”

“A Meta está replicando online alguns dos mesmos desequilíbrios de poder e abusos de direitos que vemos no mundo real”

Os materiais internos revisados pelo Intercept não mostram tais intervenções em prol dos palestinos – não há lista de permissão de propaganda projetada para aumentar a simpatia de civis ou diretivas para usar avisos em vez de remover conteúdo que retrata danos à população.

Os críticos apontam a disparidade no questionamento de por que o discurso online sobre crimes de guerra e ofensas aos direitos humanos cometidos contra europeus parece merecer proteção especial, ao contrário do que ocorre com discursos de abuso contra pessoas de outras regiões.

“A Meta deve respeitar o direito de expressão das pessoas, seja na Ucrânia ou na Palestina”, disse Shakir, da Human Rights Watch. “Ao silenciar muitas pessoas arbitrariamente e sem explicação, a Meta está replicando online alguns dos mesmos desequilíbrios de poder e abusos de direitos que vemos no mundo real.”

Embora a Meta pareça se opor a permitir que civis palestinos mantenham conteúdo explícito online, a empresa interveio em relação a postagens de militares israelenses ocupantes. Em dado momento, a Meta tomou medidas para garantir que imagens de um ataque contra um integrante das forças de segurança israelenses na Cisjordânia ocupada fosse mantida: “Um policial de fronteira israelense foi atingido e levemente ferido por um coquetel molotov durante confrontos com palestinos em Hebron”, aponta um memorando sem data distribuído aos moderadores. “Estamos abrindo uma exceção para que esse conteúdo específico seja marcado como perturbador.”

Tradução: Ricardo Romanoff

FUENTE DEL ARTICULO