Sábado, 16 de maio de 2026

Porto Alegre

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

Tecnologia Apple adia polêmica tecnologia de análise de imagens no iPhone

Compartilhe esta notícia:

O adiamento foi feito, segundo a Apple, "com base no feedback de clientes, grupos de defesa, pesquisadores e outro. (Foto: Reprodução)

A Apple anunciou nesta semana que não lançará agora a sua controversa tecnologia de detecção de material de abuso sexual infantil (CSAM), que havia sido anunciada no mês passado. A empresa explicou ao site TechCrunch que irá “reservar um tempo adicional nos próximos meses” para analisar melhor e fazer alguns ajustes, antes do lançamento desses recursos de segurança.

O adiamento foi feito, de acordo com a empresa, “com base no feedback de clientes, grupos de defesa, pesquisadores e outros”. Como divulgado anteriormente, esse retorno dos usuários foi amplamente negativo. Só a ONG de defesa das liberdades civis Electronic Frontier Foudation colheu mais de 25 mil assinaturas de consumidores contra a medida. A respeitada ACLU (American Civil Liberties Union) também pediu à Apple que desistisse do procedimento.

Como funciona a tecnologia

Chamado de NeuralHash, o novo recurso da Apple consiste em um algoritmo supostamente capaz de detectar conteúdos de pornografia infantil em dispositivos de usuários, sem obter a imagem ou mesmo conhecer o seu conteúdo. Como fotos armazenadas no iCloud são criptografadas de ponta a ponta – para que nem mesmo a própria dona do sistema consiga acessar –, o NeuralHash procura material de abuso sexual infantil diretamente nos computadores e celulares.

Se as intenções soam como as melhores possíveis, especialistas em cibersegurança e defensores da privacidade na internet vêm expressando sua preocupação com um possível desvirtuamento do sistema por atores poderosos, como governos totalitários, para explorar e oprimir seus cidadãos.

Outra preocupação são os possíveis falsos positivos. Um usuário do agregador social Reddit usou a engenharia reversa para criar “colisões de hash” no NeuralHash, ou seja, utilizou o próprio algoritmo matemático que transforma dados em caracteres (hash) para enganar o sistema. Comparando uma imagem diferente do banco de dados CSAM do dispositivo, o especialista “o iludiu” como se as imagens fossem iguais.

Compartilhe esta notícia:

Voltar Todas de Tecnologia

Deixe seu comentário

Os comentários estão desativados.

Festival de Veneza exibe filme com Kristen Stewart sobre Lady Di
Falha no aplicativo do Relógio para Android faz usuários perderem alarme
Pode te interessar