Ícone do site Jornal O Sul

Saiba como o Facebook decide o que fica na rede e o que deve ser deletado

Uma equipe de revisores do Facebook espalhada pelo mundo é responsável por, em tempo real, verificar quais dos posts publicados pelo montante de 1,5 bilhão de usuários e alvos de denúncia merecem permanecer no site. Crédito: Reprodução

Foto dos seios pode, desde que sejam de uma mulher amamentando ou que passou por uma mastectomia. Afirmar que gays são pessoas ruins não pode – mas criticar o trabalho de uma ONG LGBT (lésbicas, gays, bissexuais e transgêneros), sim. Dizer que quer matar alguém, bem, aí depende do seu grau de periculosidade.

Uma equipe de revisores do Facebook espalhada pelo mundo é responsável por, em tempo real, verificar quais dos posts publicados pelo montante de 1,5 bilhão de usuários e alvos de denúncia merecem permanecer no site e quais devem ser deletados.

Essas decisões são comumente alvo de críticas, como quando, em abril deste ano, a empresa tirou do ar a foto de um casal de índios, com ela de seios à mostra, postada na conta do Ministério da Cultura. O ministro Juca Ferreira classificou a remoção como “censura”. Monika Bickert, uma ex-promotora americana que lidera a equipe global de revisores, classifica esse tipo de episódio como um dos “desafios” de seus comandados (há uma equipe também no Brasil para isso). Na prática, segundo ela, o site fica no limiar entre a liberdade de expressão e a proteção à honra e segurança dos usuários. Leia abaixo trechos da conversa com a executiva.

O papel das máquinas

“Temos automação para fazer uma triagem das denúncias. Se algo foi reportado por mais de dez pessoas, nós consolidamos os dados para analisar o caso. E se algo já foi removido, por exemplo, não precisamos mais analisar. O que eu quero enfatizar é que a maior parte das denúncias, de discurso de ódio, de violência, é revisada por pessoas reais.”

Análise prévia

“Nós usamos uma ferramenta chamada Photo DNA, que é da Microsoft e licenciada para outras companhias. Se alguém tenta postar uma imagem de pornografia infantil, a imagem é barrada, não chega a entrar no sistema, e nós então notificamos a National Center for Missing and Exploited Children [uma ONG que auxilia crianças que sofreram abusos], que tem contato com associações e governos ao redor do mundo.”

Diferença entre celebrar a violência e informar

“Conteúdo gráfico [como fotos e vídeos] pode ser poderoso para alertar as pessoas sobre algo. Como violências aos direitos humanos – e às vezes vemos conteúdo sobre a Síria, por exemplo –, há razões para que a comunidade veja isso.

Nossa política é que, se alguém compartilha esse tipo de imagem para informar e acaba denunciado, nós vamos deixar aquilo visível para adultos e colocar um aviso. Você precisa clicar para ver. Mas se aquilo foi postado para zombar da vítima ou celebrar a violência, vamos removê-lo. Há coisas que não permitimos, como vídeos de degola, mesmo que seja para informação.”

Nudez castigada

“Nós não permitimos genitais e, em alguns casos, topless, a não ser em casos de amamentação ou de imagens pós-cirúrgicas. Parte da razão para isso é que precisamos garantir que a pessoa deu autorização para que aquela imagem tenha sido compartilhada, para evitar problemas como a ‘vingança pornô’, que podem ter graves consequências para as pessoas. Por isso, pendemos para o lado da segurança.”

Liberdade de expressão
“O nosso foco é se há um ataque a uma pessoa ou a um grupo, com base, por exemplo, na orientação sexual.
Não importa se quem publicou o texto foi um político ou outra pessoa. Se ela diz ‘eu não gosto de gays, eles são pessoas ruins’, isso viola a nossa política. Mas se você critica um político por suas visões nesse assunto, ou uma instituição, como uma ONG gay, por exemplo, então nós permitiríamos.”

Sair da versão mobile