Quarta-feira, 12 de novembro de 2025
Por Redação O Sul | 12 de novembro de 2025
Mais de um milhão de usuários ativos em uma semana conversam com o ChatGPT sobre suicídio. É o que mostram dados divulgados pela OpenAI (dona do chatbot). “Nossa análise inicial estima que cerca de 0,15% dos usuários ativos em uma semana têm conversas que incluem indicadores explícitos de possível planejamento ou intenção suicida”, disse a empresa.
Como mais de 800 milhões de pessoas usam o ChatGPT semanalmente, segundo a companhia, essa porcentagem corresponde a aproximadamente 1,2 milhão de usuários.
No comunicado, a OpenAI também informou que estima que cerca de 0,07% dos usuários ativos semanais, um pouco menos de 600 mil pessoas, apresentam possíveis sinais de emergências de saúde mental relacionadas à psicose ou mania.
O problema ganhou destaque depois que o adolescente californiano Adam Raine cometeu suicídio no início deste ano. Seus pais entraram com uma ação judicial contra o ChatGPT porque a ferramenta forneceu conselhos específicos sobre como fazê-lo.
Desde então, a OpenAI aprimorou os controles parentais para seu chatbot e introduziu outras medidas de segurança. Entre elas: maior acesso a linhas diretas de ajuda, o redirecionamento automático de conversas delicadas para modelos mais seguros e lembretes sutis para que os usuários façam pausas durante sessões prolongadas.
A companhia também atualizou o ChatGPT para reconhecer e responder melhor aos usuários que enfrentam emergências de saúde mental, e diz que está trabalhando com mais de 170 profissionais de saúde mental para reduzir significativamente as respostas problemáticas.
Processo
Os pais do adolescente Adam Raine, que se suicidou após o ChatGPT o orientar sobre métodos de autoagressão, entraram com um processo contra a OpenAI, dona da IA, e seu presidente-executivo, Sam Altman.
Adam Raine, de 16 anos, morreu em 11 de abril após conversar por meses sobre suicídio com o ChatGPT, de acordo com a ação judicial apresentada pelos pais dele no tribunal estadual de São Francisco, nos Estados Unidos.
A ação judicial quer responsabilizar a OpenAI por homicídio culposo e violações das leis de segurança de produtos, além de buscar indenizações monetárias não especificadas.
Segundo pais de Raine, a empresa priorizou o lucro em detrimento da segurança ao lançar a versão GPT-4o de seu chatbot no ano passado.
No processo, a família alega que a OpenAI estava ciente de que características da versão, como lembrar interações passadas, imitar empatia humana e oferecer validação excessiva poderiam representar riscos para usuários vulneráveis na ausência de salvaguardas, mas lançou o produto mesmo assim.
Os responsáveis alegam que o ChatGPT validou os pensamentos suicidas de Raine, forneceu informações detalhadas sobre métodos letais de automutilação e o instruiu sobre como roubar álcool do armário de bebidas de seus pais e esconder evidências de uma tentativa fracassada de suicídio.
O ChatGPT até se ofereceu para redigir uma nota de suicídio, disseram os pais, Matthew e Maria Raine, no processo.
Um porta-voz da OpenAI disse que a empresa está triste pelo falecimento de Raine e que o ChatGPT possui salvaguardas, como direcionar pessoas para linhas de apoio em situações de crise.
“Embora essas proteções funcionem melhor em trocas curtas e comuns, aprendemos ao longo do tempo que elas podem se tornar menos confiáveis em interações longas, nas quais partes do treinamento de segurança do modelo podem se degradar”, disse o porta-voz, acrescentando que a OpenAI vai aprimorar de forma contínua suas proteções.
A OpenAI não comentou especificamente sobre as alegações feitas na ação judicial.
Em uma publicação de blog, a startup mencionou que está planejando implementar controles parentais e explorar formas de conectar usuários em crise a recursos do mundo real. As informações são das agências de notícias AFP e Reuters.