Há pelo menos uma década, para evitar acusações de que ajudava terroristas a espalhar propaganda, o Facebook tem impedido os usuários de falar livremente sobre pessoas e grupos que diz promoverem a violência.

As restrições aparentemente remontam ao final de 2012, quando diante do crescente alarme no Congresso e nas Nações Unidas sobre o recrutamento online de terroristas, o Facebook acrescentou a suas Normas da Comunidade uma proibição de “organizações com um histórico de atividade terrorista ou criminosa violenta”. Essa humilde regra, desde então, transformou-se no que é conhecida como a política de Indivíduos e Organizações Perigosas, ou IOP, um conjunto de restrições generalizadas sobre o que os quase 3 bilhões de usuários do Facebook podem dizer sobre uma lista enorme e sempre crescente de entidades cuja atuação é vista como tendo ultrapassado os limites.

Nos últimos anos, a política tem sido usada em um ritmo mais veloz, inclusive contra o presidente dos Estados Unidos, e assumiu um poder quase reverencial na rede social, sendo invocado para tranquilizar os usuários sempre que arroubos de violência, do genocídio em Mianmar aos motins no Capitólio, são ligados ao Facebook. Mais recentemente, após uma série de reportagens do Wall Street Journal mostrando que a empresa sabia que contribuía para uma miríade de danos offline, um vice-presidente do Facebook citou a política como prova da diligência da empresa em um memorando interno obtido pelo New York Times.

A política IOP do Facebook se tornou um sistema que não responde a ninguém e que pune de forma desproporcional algumas comunidades.

Mas, como em outras tentativas de limitar as liberdades pessoais em nome do contraterrorismo, a política IOP do Facebook se tornou um sistema que não responde a ninguém e que pune de forma desproporcional algumas comunidades, segundo críticos. Ela se ergue sobre uma lista proibida de 4 mil pessoas e grupos, incluindo políticos, escritores, instituições de caridade, hospitais, centenas de conjuntos musicais, e figuras históricas mortas há muito tempo.

Diversos juristas e defensores das liberdades civis pediram que a empresa publicasse a lista para que os usuários saibam quando correm o risco de elogiar alguém que faz parte dela e ter uma postagem deletada ou sua conta suspensa. A empresa tem repetidamente se recusado a fazer isso, alegando que isso colocaria em risco seus funcionários e permitiria que as entidades proibidas driblassem as restrições. O Facebook não forneceu ao Intercept informações sobre qualquer ameaça específica aos seus funcionários. Além disso, o próprio Conselho de Supervisão, escolhido a dedo pela empresa, recomendou em várias ocasiões – a última delas em agosto – a publicação da lista completa, por uma questão de interesse público.

O Intercept teve acesso a uma foto da lista completa de IOP e hoje publica uma reprodução do material em sua totalidade, com apenas pequenas alterações e edições para melhorar a clareza. Também estamos publicando um conjunto de documentos sobre políticas associadas, criadas para ajudar os moderadores a decidir quais postagens devem ser apagadas e quais usuários devem ser punidos.

“O Facebook coloca seus usuários em uma posição quase impossível, dizendo-lhes que não podem postar sobre grupos e indivíduos perigosos, mas depois se recusa a identificar publicamente quem considera perigoso”, disse Faiza Patel, co-diretora do programa de liberdade e segurança nacional do Centro Brennan para a Justiça, que analisou o material.

A lista e as regras associadas parecem ser uma encarnação das angústias americanas, preocupações políticas e valores da política externa desde o 11 de setembro de 2001, disseram especialistas, embora a política do IOP seja destinada a proteger todos os usuários do Facebook e se aplique a quem reside fora dos Estados Unidos (a grande maioria). Quase todos e tudo o que está na lista é considerado um inimigo ou ameaça pelos Estados Unidos ou seus aliados: mais da metade dela consiste de supostos terroristas estrangeiros, e a livre discussão sobre eles está sujeita à mais dura censura do Facebook.

Segundo os especialistas, a política do IOP e a lista proibida também são muito mais frouxas em relação a comentários sobre milícias anti-governamentais predominentemente brancas do que quanto a grupos e indivíduos listados como terroristas, que são predominantemente do Oriente Médio, do Sul da Ásia e muçulmanos, ou aqueles que supostamente fazem parte de grupos criminosos violentos, que são predominentemente negros e latinos.

Os materiais mostram que o Facebook tem “mão de ferro para algumas comunidades e uma mão mais comedida para outras”, disse Ángel Díaz, um professor da Faculdade de Direito da Universidade da Califórnia em Los Angeles, a UCLA, que pesquisou e escreveu sobre o impacto das políticas de moderação do Facebook em comunidades marginalizadas.

O diretor de políticas de contraterrorismo e organizações perigosas do Facebook, Brian Fishman, disse numa declaração escrita que a empresa mantém a lista em segredo porque “esse é um ambiente adverso, por isso tentamos ser os mais transparentes possíveis, ao mesmo tempo que damos prioridade à segurança, limitando riscos legais e prevenindo oportunidades para os grupos contornarem as nossas regras”. Ele acrescentou: “Não queremos terroristas, grupos de ódio ou organizações criminosas na nossa plataforma, e é por isso que os proibimos e removemos conteúdos que os elogiam, representam ou apoiam. Uma equipe de mais de 350 especialistas no Facebook está concentrada em deter estas organizações e avaliar ameaças emergentes. Atualmente, banimos milhares de organizações, incluindo mais de 250 grupos de supremacia branca nos níveis mais altos das nossas políticas, e atualizamos regularmente as nossas políticas e organizações que se enquadram nas condições para serem banidas”.

Embora os especialistas que revisaram o material digam que a política do Facebook é indevidamente obscurecida e punitiva para os usuários, ela é, no entanto, um reflexo de um verdadeiro dilema enfrentado pela empresa. Após o genocídio em Mianmar, a empresa reconheceu que talvez tenha se tornado o sistema mais poderoso já montado para a distribuição algorítmica global de incitação violenta. Não fazer algo diante dessa realidade seria visto como excessivamente negligente por uma grande parcela das pessoas — mesmo que as tentativas do Facebook de controlar o discurso de bilhões de usuários de internet ao redor do mundo sejam vistas como coisas dignas de uma autocracia. A lista IOP representa uma busca por equilibrar tudo isso por parte de uma empresa com uma concentração de poder sem precedentes sobre o discurso global.

Restrições mais severas para populações marginalizadas e vulneráveis

A lista, a base da política de indivíduos e organizações perigosas do Facebook, é em muitos aspectos o que a empresa já descreveu no passado: uma coletânea de grupos e líderes que ameaçaram ou se envolveram em derramamento de sangue. O retrato analisado pelo Intercept é separado nas categorias Ódio, Crime, Terrorismo, Movimentos Sociais Militarizados e Atores Violentos Não Estatais. Essas categorias foram organizadas em um sistema de três níveis sob regras implantadas pelo Facebook no final de junho, com cada nível correspondendo a restrições de fala de severidade variável.

Mas, enquanto rótulos como “terrorista” e “criminoso” são conceitualmente amplos, eles parecem mais como substitutos raciais e religiosos uma vez que se vê como eles são aplicados a pessoas e grupos da lista, segundo os especialistas, o que aumenta a probabilidade de que o Facebook esteja colocando limitações discriminatórias à liberdade de expressão.

Independentemente do nível, ninguém na lista IOP está autorizado a manter uma presença nas plataformas do Facebook, nem os usuários estão autorizados a se apresentar como membros de qualquer grupo da lista. Os níveis determinam, na verdade, o que outros usuários estão autorizados a dizer sobre as entidades proibidas. O nível 1 é o mais estritamente limitado; os usuários não podem expressar nada considerado como elogio ou apoio a grupos e pessoas da camada 1, mesmo para atividades não violentas (conforme a classificação determinada pelo Facebook). O nível 1 inclui supostos grupos de terror, ódio e criminosos e seus supostos membros, com terror definido como “organizar ou defender a violência contra civis”, e o ódio como “desumanizar repetidamente ou defender o mal” contra pessoas com características protegidas. A categoria criminosa de nível 1 é quase inteiramente composta por gangues de rua dos Estados Unidos e cartéis de droga latino-americanos, predominantemente integradas por negros e latinos. A categoria terrorista do Facebook, que representa 70% do nível 1, consiste esmagadoramente de organizações e indivíduos do Oriente Médio e do Sul da Ásia — que estão representados de forma desproporcional em toda a lista IOP, em todos os níveis, onde cerca de 80% dos indivíduos são rotulados como terroristas.


fb-chart-final-01

Gráfico: Soohee Cho/The Intercept

O Facebook recebe a maioria dos nomes na categoria de terrorismo diretamente do governo dos EUA: cerca de 1.000 dos nomes na lista de terrorismo perigoso mencionam uma “fonte de designação” de “SDGT”, sigla em inglês para Terroristas Globais Especialmente Designados, uma lista de sanções mantida pelo Departamento do Tesouro e criadapor George W. Bush na sequência imediata dos ataques de 11 de setembro. Em muitos casos, os nomes na lista do facebook incluem passaportes e números de telefones encontrados na lista oficial de SDGT, sugerindo que os nomes são copiados diretamente dali.

Outras fontes incluem o Terrorism Research & Analysis Consortium, o Consórcio de Pesquisa e Análise de Terorrismo ou TRAC na sigla em inglês, uma base de dados privada e fechada para assinantes que reúne supostos extremistas violentos, e o SITE, uma operação privada de rastreamento de terrorismo com uma longa e controversa história. “Uma palavra árabe pode ter quatro ou cinco significados diferentes na tradução”, disse em 2006 à revista New Yorker Michael Scheuer, antigo chefe da unidade da CIA sobre o Osama Bin Laden, observando que o SITE normalmente escolhe “a tradução mais bélica”. Parece que o Facebook tem trabalhado com gigantes tecnológicos da concorrência para compilar a lista IOP: um nome na lista trazia uma nota “incluída” por um funcionário de alto nível da Google que trabalhou anteriormente no ramo executivo em questões relacionadas com o terrorismo (o Facebook disse que não colabora com outras empresas de tecnologia em suas listas).

Há cerca de 500 grupos de ódio no nível 1, incluindo os 250 grupos de supremacistas brancos citados por Fishman, mas Faiza Patel, do Centro Brennan, observou que centenas de grupos predominantemente de milícias brancas de direita, semelhantes aos grupos de ódio, são “tratados de maneira mais leve” e colocados no nível 3.

O nível 2, de Atores Violentos Não Estatais, consiste principalmente de grupos como rebeldes armados que se envolvem em violência viando governos e não civis, e inclui muitas facções que lutam na Guerra Civil Síria. Usuários podem elogiar os grupos desta camada por suas ações não violentas, mas não podem expressar qualquer “apoio substantivo” aos próprios grupos.

O nível 3 é para grupos que não são violento, mas que repetidamente se envolvem em discursos de ódio, parecem estar prontos para se tornar violentos em breve, ou violam de forma reiterada as políticas IOP. Usuários do Facebook são livres para discutir os listados no nível 3 como quiserem. O nível 3 inclui “Movimentos Sociai Militarizados” que, a julgar por suas inclusões no IOP, são em sua maioria milícias anti-governamentais americanas, que são brancas em praticamente sua totalidade.

“As listas parecem criar dois sistemas discrepantes, com as penalidades mais pesadas aplicadas a regiões e comunidades fortemente muçulmanas.”

“As listas parecem criar dois sistemas discrepantes, com as penalidades mais pesadas aplicadas a regiões e comunidades fortemente muçulmanas”, escreveu Patel em um email ao Intercept. As diferenças na composição democrática entre os níveis 1 e 3 “sugere que o Facebook – assim como o governo dos EUA – considera os muçulmanos como os mais perigosos”. Em contraste, aponta Patel, “grupos de ódio definidos como grupos de ódio antimuçulmanos pelo Southern Poverty Law Center estão esmagadoramente ausentes das listas do Facebook”.

Milícias anti-governamentais, entre as que recebem as intervenções mais comedidas do Facebook, “apresentam a ameaça [doméstica violenta extremista] mais letal” para os EUA, concluíram oficiais de inteligência no início deste ano, uma visão compartilhada por muitos especialistas sem ligação com o governo. Uma diferença crucial entre os supostos grupos terroristas e, por exemplo, os Oath Keepers, é que as milícias domésticas têm um capital político considerável e apoio entre a direita americana. Os grupos incluídos na seção de Movimento Social Militarizado “parecem ter sido criados em resposta a organizações mais poderosas e grupos étnicos que quebram as regras com bastante regularidade”, disse Ángel Díaz, professor de Direito na UCLA. “[O Facebook] sentia que precisava dar uma resposta, mas não queriam que a resposta fosse tão ampla quanto foi para a parte do terrorismo, então criou uma subcategoria para limitar o impacto sobre o discurso de grupos politicamente poderosos”, acrescentou. Por exemplo, o movimento de extrema direita conhecida como “Boogaloo”, que defende uma segunda Guerra Civil, é considerado um Movimento Social Militarizado, o que o sujeitaria às regras relativamente indulgentes do nível 3. O Facebook classificou como nível 1 apenas um subconjunto do Boogaloo, que deixou claro que era “distinto do movimento boogaloo mais amplo e levemente relacionado”.

O Facebook negou categoricamente que dê um tratamento especial aos grupos de extrema-direita nos EUA devido à sua associação com a política conservadora dominante. A porta-voz da empresa disse que as classificações da empresa se baseiam no seu comportamento: “Quando os grupos americanos atingem nossa definição de grupo terrorista, são designados como organizações terroristas (por exemplo, The Base, Atomwaffen Division, National Socialist Order). Os que atingem nossa definição de grupos de ódio são designados como organizações de ódio (por exemplo, Proud Boys, Rise Above Movement, Patriot Front)”.

O Facebook considerou o tratamento da empresa em relação às milícias como uma regulamentação mais agressiva do que frouxa, afirmando que a lista de 900 desses grupos “está entre as mais robustas” do mundo: “A categoria Movimento Social Militarizado foi desenvolvida em 2020 explicitamente para expandir a gama de organizações sujeitas às nossas políticas IOP precisamente por causa do ambiente de ameaças em constante mudança. A nossa política relativa às milícias [digitais] é a mais forte do setor”.

A respeito de a classificação do Facebook aparentemente seguir linhas raciais e religiosas, a empresa citou a presença dos supremacistas brancos e grupos de ódio no nível 1 e disse que “concentrar-se apenas em” grupos terroristas no nível 1 “é enganoso”. E também acrescentou: “Vale a pena notar que a nossa abordagem aos grupos de ódio de supremacia branca e organizações terroristas é muito mais agressiva do que a de qualquer governo. Dito isso, a Organização das Nações Unidas, a União Europeia, os Estados Unidos, o Reino Unido, o Canadá, a Austrália e a França diferenciam apenas 13 organizações de supremacia branca. Nossa definição de terrorismo é pública, detalhada e foi desenvolvida com contribuição de especialistas e acadêmicos. Ao contrário de algumas outras definições de terrorismo, nossa definição é agnóstica à religião, região, perspectiva política, ou ideologia. Incluímos muitas organizações sediadas fora do Oriente Médio e do Sul da Ásia como terroristas, incluindo organizações sediadas na América do Norte e Europa Ocidental (incluindo a National Socialist Order, a Feurerkrieg Division, o Irish Republican Army e o National Action Group”.

Na lista do Facebook, no entanto, o número de grupos terroristas com sede na América do Norte ou na Europa Ocidental soma apenas algumas dezenas em mais de mil.

Embora a lista inclua vários comandantes do Estado Islâmico e militantes da Al-Qaeda cujo perigo para os outros é incontroverso, seria difícil defender que alguns nomes constituem uma ameaça para qualquer um. Devido à forma como o Facebook emula as sanções federais contra o terrorismo, que se destinam a punir os adversários internacionais em vez de determinar a “periculosidade”, é política do Facebook que organizações como a Companhia de Tratores do Irã e o Fundo de Auxílio e Desenvolvimento Palestino, uma organização de ajuda humanitária com sede no Reino Unido, sejam ambas consideradas um perigo real demais para a livre discussão no Facebook, e colocadas no nível 1 ao lado de organizações terroristas como o Al-Shabaab.

“Quando uma grande plataforma global escolhe alinhar suas políticas com os Estados Unidos — um país que há muito exerce hegemonia sobre grande parte do mundo (e, particularmente, nos últimos vinte anos, sobre muitos países predominantemente muçulmanos), está simplesmente recriando esses mesmos diferenciais de poder e tirando a agência de grupos e indivíduos já vulneráveis”, disse Jillian York, diretora de liberdade de expressão internacional da Electronic Frontier Foundation, que também revisou a documentação do Facebook.

A lista do Facebook representa uma ampla definição de “perigoso” do início ao fim. Ela inclui o soldado infantil Mudassir Rashid Parray, morto aos 14 anos na região da Kashmira, mais de 200 conjuntos musicais, canais de televisão, um estúdio de videogames, companhias aéreas, a universidade médica iraniana que trabalha na vacina contra a covid-19, e figuras históricas mortas há muito tempo, como Joseph Gebbels e Benito Mussolini. Incluir tais figuras é algo “repleto de problemas”, disse recentemente um grupo de pesquisadores de mídia social da Universidade de Utah ao Conselho de Supervisão do Facebook.

Diretrizes preocupantes para a aplicação da lei

Os documentos internos do Facebook explicam aos moderadores o processo de censura o discurso de pessoas e grupos da lista proibida. Os materais, que tiveram partes previamente publicadas pelo Guardian e pela Vice, tentam definir o que significa para um usuário “elogiar”, “apoiar” ou “representar” um listado como IOP, e detalhar como identificar comentários proibidos.

Embora o Facebook forneça um conjunto público dessas diretrizes, ele publica apenas exemplos limitados do que esses termos significam, ao invés de definições. Internamente, ele dá não apenas as definições, mas também exemplos muito mais detalhados, incluindo uma lista estonteante de hipóteses e casos limítrofes para ajudar a determinar o que fazer com um conteúdo sinalizado.

A empresa espera que sua força de trabalho global de moderação de conteúdo, um exército de terceirizados que recebem por hora trabalhada, frequentemente traumatizados pela natureza explícita de seu trabalho, use essas definições e exemplos para descobrir se um determinado post constitui um “elogio” proibido ou chega ao limiar do “apoio”, entre outros critérios, encaixando o discurso de bilhões de pessoas de centenas de países e inúmeras culturas para uma estrutura limpinha decretada no Vale do Silício. Embora esses funcionários operem em conjunto com sistemas de software automatizados, determinar o que é “elogio” e o que não é se resume frequentemente a decisões de julgamento pessoal, que tentam descobrir as intenções dos autores. “Mais uma vez, isso deixa o verdadeiro trabalho duro de tentar tornar o Facebook seguro a moderadores de conteúdo terceirizados, mal pagos e sobrecarregados,  forçados a revisar as postagens e a fazer o seu melhor segundo sua localização geográfica, língua e contexto específicos”, disse Martha Dark, diretora da Foxglove, um grupo de assistência jurídica que trabalha com moderadores.

Nos documentos internos, o Facebook diz essencialmente que os usuários estão autorizados a falar de entidades de nível 1 desde que este discurso seja neutro ou crítico, pois qualquer comentário considerado positivo poderia ser interpretado como “elogio”. Os usuários do Facebook estão impedidos de fazer qualquer coisa que “procure fazer com que outros pensem mais positivamente” ou “legitimem” um grupo ou pessoa perigosos do nível 1, ou “alinhar-se” com sua causa — todas as formas de discursos consideradas “elogios”. Os documentos dizem que “declarações apresentadas na forma de um fato sobre os motivos da entidade” são aceitáveis, mas qualquer coisa que “glorifica a entidade através do uso de adjetivos, frases, imagens, etc.” não é aceitável. Os usuários podem dizer que uma pessoa que o Facebook considera perigosa “não é uma ameaça, relevante ou digna de atenção”, mas não podem dizer que “apoiam” uma pessoa da lista que acreditam ter sido incluída erroneamente — isso é considerado alinhamento com o nome da lista. Os moderadores do Facebook também podem decidir por si mesmos o que constitui uma “glorificação” perigosa frente ao “discurso neutro” permitido, ou o que conta como “debate acadêmico” e “discurso informativo e educativo” para bilhões de pessoas.

Determinar qual conteúdo atende às definições do Facebook de discurso proibido é um “sufoco”, de acordo com um moderador do Facebook que trabalha fora dos Estados Unidos e falou com o Intercept sob a condição de anonimato. Essa pessoa disse que os analistas “geralmente, lutam para reconhecer o discurso político e a condenação [desses discursos], que são contextos permitidos para o IOP”. Eles também notaram a tendência da política de errar o alvo: “As representações fictícias de [indivíduos perigosos] não são permitidas a menos que sejam compartilhadas em um contexto condenatório ou informativo, o que significa que compartilhar uma foto de Taika Waititi do [filme] Jojo Rabbit fará com que você seja banido, assim como um meme com o ator interpretando Pablo Escobar (o que está na piscina vazia)”.

Estes desafios se tornam ainda mais complexos quando o moderador deve tentar avaliar como seus colegas moderadores avaliariam a postagem, uma vez que suas decisões são comparadas. “Um analista deve tentar prever que decisão tomaria um revisor de qualidade ou a maioria de moderadores, o que muitas vezes não é fácil”, disse o moderador.

As regras são “um sério risco ao debate político e à livre expressão”, disse Patel, particularmente no mundo muçulmano, onde os grupos listados como IOP existem não simplesmente como inimigos militares, mas como parte do tecido sociopolítico. O que parece glorificação visto de uma escrivaninha nos EUA “em um determinado contexto, poderia ser visto como uma simples declaração de fatos”, concordou a EFF. “Pessoas que vivem em locais onde os chamados grupos terroristas desempenham um papel no governo precisam ser capazes de discutir esses grupos com nuances, e a política do Facebook não permite isso”.

O moderador que trabalha fora dos EUA concordou que a lista reflete uma concepção americanizada do perigo: “As designações parecem ser baseadas em interesses americanos”, o que “não representa a realidade política desses países” em outras partes do mundo, disse a pessoa.

Como diz Patel, “um comentarista na televisão poderia elogiar a promessa do Talibã por um governo inclusivo no Afeganistão, mas não poderia fazer isso no Facebook”.

Particularmente confusa e censuradora é a definição do Facebook de um “Grupo de Apoio a Atos Violentos em Meio a Protestos”, uma subcategoria de “Movimentos Sociais Militarizados” impedida de utilizar as plataformas da empresa. O Facebook descreve esse grupo como “um ator não estatal” que se envolve em “representar [ou] retratar… atos de violência de rua contra civis ou policiais”, bem como “incendiar, pilhar ou outra destruição de propriedade privada ou pública”. Como está escrito, esta política parece dar licença ao Facebook para aplicar esse rótulo a praticamente qualquer organização de imprensa cobrindo — ou seja, retratando — um protesto de rua que resulta em danos à propriedade, ou punir qualquer participante que faça o upload de imagens de atos assim cometidos por outras pessoas. Considerando os elogios feitos ao Facebook há uma década pela crença de que ele havia ajudado a impulsionar os levantes da “Primavera Árabe” no Norte da África e no Oriente Médio, é notável que, digamos, uma organização egípcia documentando a violência nos protestos da Praça Tahrir em 2011 poderia ser considerada um perigoso Movimento Social Militarizado sob as regras de 2021.

Díaz, da UCLA, disse ao Intercept que o Facebook deveria divulgar muito mais a respeito de como aplica essas regras relacionadas a protestos. A empresa encerrará imediatamente as páginas que organizam protestos no segundo que qualquer incêndio ou dano à propriedade ocorra? “As normas que eles estão articulando aqui sugerem que [a lista de IOP] poderia engolir muitos manifestantes ativos”, disse Diaz.

É possível que a cobertura de protestos esteja relacionada à entrada na lista de IOP de duas organizações de mídia anticapitalista, a Crimethinc e a It’s Going Down. O Facebook baniu as duas publicações em 2020, citando a política IOP, e ambas são de fato encontradas na lista, designadas como “Movimentos Sociais Militarizados” e “Milícias Armadas”. Um representante da It’s Going Down, que solicitou o anonimato por questão de segurança, disse ao Intercept que “organizações de notícias em todo o espectro político informam sobre confrontos nas ruas, greves, tumultos e destruição de propriedade, mas aqui o Facebook parece deixar implícito que, se eles não gostam da análise… ou opinião que alguém escreve sobre por que milhões de pessoas tomaram as ruas no ano passado durante a pandemia nos maiores números da história dos EUA, então eles vão simplesmente remover você da conversa”. Eles negaram especificamente que o grupo seja uma milícia armada, ou mesmo um ativista ou um movimento social, explicando que é, na verdade, uma plataforma de mídia “apresentando notícias, opiniões, análises e podcasts a partir de uma perspectiva anarquista”. Um representante da Crimethinc também negou que o grupo esteja armado ou “‘militarizado’ em qualquer sentido. É um veículo de notícias e editor de livros, como Verso ou Jacobin”. O representante solicitou o anonimato citando ameaças de direita à organização.

O Facebook não comentou sobre o porquê dessas organizações de mídia terem sido classificadas internamente como “milícias armadas”, mas em vez disso, quando perguntado sobre elas, reiterou sua proibição sobre tais grupos e sobre os grupos que apoiam atos violentos em meio a protestos.

Os documentos internos de moderação do Facebook também deixam algumas brechas intrigantes. Depois que a plataforma desempenhou um papel na facilitação do genocídio em Mianmar, o executivo da empresa Alex Warofka escreveu que “concordamos que podemos e devemos fazer mais” para “evitar que nossa plataforma seja usada para fomentar a divisão e incitar a violência offline”. Mas a proibição do Facebook contra a incitação à violência é relativa, permitindo expressamente, nos documentos obtidos pelo Intercept, que se conclame a violência contra “locais não menores que uma vila”. Por exemplo, a afirmação “devemos invadir a Líbia” é citada como aceitável pelas regras.

A porta-voz do Facebook disse que “o objetivo desta disposição é permitir o debate sobre estratégia militar e guerra, que é uma realidade do mundo em que vivemos”, e reconheceu que a política da empresa autoriza apelos de violência contra um país, cidade ou grupo terrorista, citando o exemplo de uma postagem permitida: “Devemos matar Osama bin Laden”.


A sede do Facebook em Menlo Park, na Califórnia, em 10 de maio de 2021.

A sede do Facebook em Menlo Park, na Califórnia, em 10 de maio de 2021.

Foto: Nina Riggio/Bloomberg via Getty Images

Supressão severa da liberdade de expressão sobre o Oriente Médio

A aplicação das regras de IOP leva a alguns resultados surpreendentes para uma empresa que reivindica a “livre expressão” como um princípio central. Em 2019, citando a política de IOP, o Facebook bloqueou um simpósio universitário online com Leila Khaled, que participou de dois sequestros de aviões nos anos 1960, nos quais nenhum passageiro foi ferido. Khaled, hoje com 77 anos, ainda está presente na versão da lista de terrorismo do Facebook obtida pelo Intercept. Em fevereiro, o Conselho de Supervisão interno do Facebook agiu para reverter uma decisão de apagar um post questionando a prisão do revolucionário curdo esquerdista Abdullah Ocalan, listado como IOP e sequestrado por forças de inteligências turcas com ajuda dos EUA em 1999.

Em julho, a jornalista Rania Khalek postou uma foto no Instagram de um outdoor próximo ao Aeroporto Internacional de Bagdá, retratando o general iraniano Qasem Soleimani e o comandante militar iraquiano Abu Mahdi al-Muhandis, ambos assassinados pelos Estados Unidos e presentes na lista de IOP. O upload de Khalek no Instagram foi rapidamente deletado por violar o que uma notificação chamou de política sobre “violência ou organizações perigosas”. Khalek disse ao Intercept, por email, que “minha intenção quando coloquei a foto era mostrar meu entorno” e que “o fato de que [o outdoor é] exibido de forma tão proeminente no aeroporto onde eles foram assassinados mostra como eles são percebidos até mesmo pelo oficialismo iraquiano”.

Mais recentemente, a política de IOP do Facebook colidiu com a derrubada, pelo Talibã, do governo apoiado pelos EUA no Afeganistão. Depois que o Talibã assumiu o controle do país, o Facebook anunciou que o grupo estava banido de manter uma presença em seus aplicativos. O Facebook agora se encontra na posição de não apenas censurar a liderança política de um país inteiro, mas também de colocar sérias restrições à capacidade da população de discuti-la ou até mesmo de simplesmente retratá-la.

Outros incidentes indicam que a lista IOP pode ser um instrumento muito complicado para ser utilizado eficazmente pelos moderadores do Facebook. Em maio, o Facebook apagou uma variedade de postagens de palestinos tentando documentar a violência do estado israelense na Mesquita Al Aqsa, o terceiro lugar mais sagrado do Islã, porque o pessoal da empresa a confundiu com uma outra organização na lista IOP que tinha “Al-Aqsa” em seu nome, segundo um memorando interno obtido pelo BuzzFeed News. No mês passado, o Facebook censurou um usuário egípcio que publicou um artigo da Al Jazeera sobre as Brigadas Al-Qassam, um grupo ativo na vizinha Palestina, junto com uma legenda que dizia simplesmente “Ooh” em árabe. Al-Qassam não aparece na lista IOP, e o Conselho de Supervisão do Facebook escreveu que “o Facebook não foi capaz de explicar porque dois revisores humanos julgaram que o conteúdo violaria a política [da empresa]”.

Embora as últimas duas décadas tenham habituado muitos ao redor do mundo a listas secretas e de vigilância e proibições de voo, a versão disso privatizada pelo Facebook indica a Jillian York, da EFF, que “chegamos a um ponto em que o Facebook não está apenas obedecendo ou replicando as políticas dos EUA, mas indo muito além delas”.

Além disso, diz York, “nunca devemos esquecer que ninguém elegeu Mark Zuckerberg, um homem que nunca ocupou um cargo que não fosse o de CEO do Facebook”.

Tradução: Maíra Santos

The post Esta é a lista secreta de grupos e pessoas ‘perigosas’ do Facebook appeared first on The Intercept.