Quinta-feira, 15 de maio de 2025
Por Redação O Sul | 14 de maio de 2025
Empresa trabalha com startup para adaptar controle de iPhones via sinais neurais.
Foto: ReproduçãoA Apple anunciou uma nova leva de recursos de acessibilidade que serão lançados até o final deste ano. A principal novidade está no suporte a implantes cerebrais: a empresa confirmou que trabalha em um novo protocolo de controle de dispositivos por sinais neurais, desenvolvido para se integrar ao iPhone, iPad e outros produtos do ecossistema da marca. O projeto está sendo construído em parceria com a startup Synchron, especializada em interfaces cérebro-computador (BCIs, na sigla em inglês).
Segundo a empresa, o protocolo será incorporado ao recurso Switch Control, usado para controlar dispositivos por meio de movimentos simples ou sensores alternativos, e adaptado para receber comandos diretamente do cérebro, sem necessidade de movimento físico.
Ainda sem data específica para estreia, a ferramenta deve beneficiar pessoas com deficiências motoras severas, permitindo navegação e interação com o sistema operacional da Apple usando apenas sinais cerebrais captados por implantes.
Além do suporte futuro a implantes cerebrais, a Apple também anunciou ferramentas de acessibilidade voltadas a usuários com deficiência visual, auditiva ou cognitiva.
Um dos novos recursos é o Rótulo nutricional de acessibilidade, que trará informações detalhadas sobre os recursos inclusivos oferecidos por apps e jogos na App Store. Com a mudança, usuários poderão verificar antes do download se o app é compatível com tecnologias como VoiceOver, Controle por voz e Contraste aumentado.
Outra novidade é o Braille access, sistema que transforma o iPhone, iPad, Mac e o Apple Vision Pro em anotadores braille integrados. Com ele, é possível digitar, fazer cálculos e abrir arquivos no formato BRF (Braille Ready Format), com suporte ao Nemeth Braille, código usado em conteúdos de matemática e ciência.
Usuários com baixa visão também passam a contar com o aplicativo Lupa para Mac, que amplia objetos no ambiente por meio da câmera do computador. O app se conecta a webcams externas ou ao iPhone e pode ser usado em conjunto com o novo Leitor de acessibilidade, um modo de leitura integrado ao sistema com suporte para fontes maiores, espaçamento ajustável e leitura em voz alta.
Para pessoas com deficiência auditiva, o Escuta ao vivo passa a integrar o Apple Watch, com transcrição em tempo real via Legendas ao vivo. A funcionalidade transforma o iPhone em microfone remoto e exibe a transcrição diretamente no pulso do usuário, sem necessidade do celular.
(Com Estado de S.Paulo)