Quinta-feira, 01 de maio de 2025

Porto Alegre
Porto Alegre, BR
14°
Fair

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail ou WhatsApp.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

Tecnologia WhatsApp critica nova função da Apple que escaneia fotos no iPhone

Compartilhe esta notícia:

Tecnologia voltada para proteção infantil é alvo de críticas pelo chefe do WhatsApp. (Foto: Reprodução)

As novas funções da Apple para combater fotos de abuso infantil no iPhone foram alvo de críticas pelo chefe do WhatsApp Will Cathcart. Entre as ferramentas ainda não lançadas, mas já polêmicas, está a digitalização de fotos do iCloud com o objetivo de reconhecer imagens de abuso sexual infantil (CSAM, na sigla em inglês). O recurso de segurança infantil em questão compara as imagens armazenadas.

Ao Financial Times, o chefe do WhatsApp declarou que a abordagem da empresa da maçã é muito preocupante para a privacidade das pessoas. Já no Twitter, Will Cathcart anunciou que o WhatsApp nunca adotará tal sistema de detecção de conteúdos impróprios, optando por incentivar a política de denúncias entre seus usuários.

Em fio postado no Twitter, Will Cathcart questionou que o novo recurso pode ser usado para outros fins e invadir a privacidade dos usuários. O chefe do WhatsApp defendeu que seria melhor desenvolver ferramentas que facilitem a denúncia de conteúdos impróprios na plataforma. Ele, inclusive, usou como exemplo as próprias funções de denúncia do WhatsApp, e lembrou que o mensageiro relatou mais de 400 mil casos ano passado sem comprometer a criptografia do aplicativo.

O chefe do WhatsApp não foi o único a criticar as funções de proteção infantil, e mais debates sobre privacidade surgiram com o anúncio da Apple na última semana. Nesta segunda-feira (9), a empresa explicou que as ferramentas foram desenvolvidas com o intuito de banir imagens de abuso infantil do iCloud e proteger crianças de abusadores.

A Apple frisa que não será possível escanear fotos armazenadas localmente no dispositivo com a “Detecção de CSAM”. O recurso funciona apenas com imagens salvas na nuvem do iCloud, e usa criptografia para comparar fotos suspeitas com o banco de dados CSAM. Em caso positivo de conteúdo sensível, a Apple relatará as ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos (NCMEC).

Além da “Detecção de CSAM”, a Apple também anunciou a “Segurança de comunicação em mensagens”, um recurso para auxiliar os pais a proteger os filhos. A ferramenta oculta imagens detectadas como impróprias no aplicativo Mensagens. A foto é exibida em branco com um aviso às crianças de que “isso pode ser confidencial”. Caso a criança opte por visualizar a imagem mesmo assim, ela é informada de que seus pais receberão um alerta da ação.

A Apple afirma que a análise de anexos de imagem e o reconhecimento de fotos explícitas funcionam por inteligência artificial. A empresa reitera que não tem acesso às mensagens e que o recurso não rompe com a criptografia do iMessage. Além disso, o sistema de detecção de imagens das duas funções é diferente e funciona separadamente. No caso das fotos explícitas enviadas por mensagem, nem a Apple nem instituições governamentais são notificadas.

A Apple deve lançar os recursos nas atualizações de fim de ano do iOS 15, iPadOS 15 e macOS Monterey, para as contas configuradas como família no iCloud.

Compartilhe esta notícia:

Voltar Todas de Tecnologia

TikTok, Facebook e Instagram estão entre aplicativos mais baixados
Seis hábitos que aceleram o processo de envelhecimento
https://www.osul.com.br/whatsapp-critica-nova-funcao-da-apple-que-escaneia-fotos-no-iphone/ WhatsApp critica nova função da Apple que escaneia fotos no iPhone 2021-08-09
Deixe seu comentário
Pode te interessar