Quarta-feira, 24 de abril de 2024
Por Redação O Sul | 21 de dezembro de 2018
Vídeos e fotos de crianças sendo submetidas a abusos sexuais estão sendo compartilhadas abertamente e em grande escala no WhatsApp, e o serviço de mensagens criptografadas não consegue conter o problema, apesar de barrar milhares de contas todos os dias.
As revelações surgiram depois que pesquisadores de Israel advertiram o Facebook, que é proprietário do WhatsApp, em setembro de que era fácil encontrar e entrar em grupos de bate-papo nos quais — em alguns casos — até 256 pessoas compartilhavam imagens sexuais de crianças.
Esses grupos foram monitorados e documentados durante meses por duas instituições beneficentes de Israel dedicadas à segurança online, Netivei-Reshet e Screensaverz. O objetivo dos grupos era muitas vezes óbvio, com nomes como “cp” [de “child porn”, ou pornografia infantil] e fotos explícitas usadas nas imagens de perfil.
Esses identificadores não eram criptografados, e eram visíveis publicamente para anunciar conteúdo ilegal, mas os sistemas que o WhatsApp disse ter implantado não conseguiram detectá-los.
Uma revisão dos grupos pelo Financial Times rapidamente encontrou vários que ainda estavam extremamente ativos, muito depois que o WhatsApp foi advertido sobre o problema pelos pesquisadores.
“É um desastre: esse tipo de material antes era encontrado principalmente na dark web, mas hoje está no WhatsApp”, disse Yona Pressburger, do Netivei-Reshet, referindo-se a partes da internet que são propositalmente ocultas das máquinas de busca normais e que os criminosos usam para esconder suas atividades.
Um porta-voz do WhatsApp disse que “tem uma política de tolerância zero para abusos sexuais de crianças” e “proíbe ativamente contas suspeitas de compartilhar esse conteúdo repulsivo”.
O app de mensagens também disse que rastreou os nomes de grupos e perfis do WhatsApp na tentativa de identificar pessoas que compartilham esse tipo de material ilegal. Tais técnicas levaram a plataforma a proibir aproximadamente 130 mil contas nos últimos dez dias, de sua base de usuários de cerca de 1,5 bilhão de usuários.
Mas as descobertas das ONGs ilustram um problema maior: a criptografia ponta-a-ponta do WhatsApp, destinada a proteger a privacidade, não permite que a empresa veja o conteúdo das mensagens que os usuários trocam, dificultando monitorar quando ocorrem abusos de imagens infantis. Ela também pode impedir que a polícia descubra atividade ilegal.
Com os usuários de serviços de mensagens criptografadas como WhatsApp, iMessage da Apple, Telegram e Signal hoje chegando a bilhões, a pressão política subiu nos EUA e no Reino Unido para que as companhias concedam acesso a investigadores criminais.
O WhatsApp, comprado pelo Facebook em 2014 por US$ 22 bilhões, acabou de implantar a criptografia ponta-a-ponta para mensagens em 2016.
Em consequência, mesmo que o Facebook quisesse, não poderia aplicar as mesmas ferramentas que usa para retirar imagens e textos ilegais de seu site principal de rede social e do programa de compartilhamento de fotos Instagram, do qual também é proprietário.
Nesses serviços, o software automaticamente busca palavras-chaves e imagens de nudez, pornografia e violência. O Facebook também emprega 20 mil moderadores de conteúdo, muitas vezes terceiros com baixos salários, que verificam manualmente as postagens.
Em comparação, o WhatsApp só tem 300 funcionários ao todo, e muito menos recursos dedicados a monitorar atividade ilegal.
Mesmo assim, Hany Farid, professor de ciência da computação em Berkeley que desenvolveu o sistema PhotoDNA, usado por mais de 150 companhias para detectar imagens de abuso de crianças na internet, disse que o Facebook poderia fazer mais para se livrar do conteúdo ilegal no WhatsApp.
“Os crimes contra crianças estão ficando cada vez piores, as crianças são cada vez mais jovens e os atos, mais violentos. Tudo está sendo alimentado por essas plataformas”, disse ele. “O problema é profundo nessas empresas. É o modelo ‘ande depressa e quebre coisas’.”
Autoridades policiais notaram uma mudança em como os pedófilos estão usando a tecnologia para mascarar suas atividades.