Sexta-feira, 10 de outubro de 2025
Por Redação O Sul | 9 de outubro de 2025
A OpenAI anunciou novos recursos de controle parental no ChatGPT. Agora, pais e responsáveis podem vincular suas contas às de adolescentes para definir como eles vão usar a tecnologia. Também é possível receber alertas caso ocorram conversas consideradas problemáticas. A medida foi anunciada uma semana após um casal norte-americano afirmar que o sistema incentivou seu filho adolescente a cometer suicídio.
Segundo a empresa, a ferramenta já está disponível para todos os usuários. O adolescente também pode enviar um convite para que o pai ou responsável conecte a conta dele.
A ferramenta chega em um momento em que se multiplicam, nos Estados Unidos, processos de pais que acusam aplicativos de IA de prejudicar a saúde mental e até incentivar o suicídio de adolescentes.
Quando ativado, o recurso aplica proteções extras automaticamente, como a redução de conteúdo gráfico, desafios virais, dramatizações sexuais, românticas ou violentas e até ideais de beleza extremos.
“Os pais terão a opção de desativar essa configuração, se quiserem, mas os adolescentes não podem fazer alterações”, explicou a OpenAI.
Ao ativar o recurso de controle parental, é possível:
– Definir horários de uso: escolher períodos em que o ChatGPT não poderá ser acessado;
– Bloquear imagens: desativar a criação e edição de imagens no app;
– Desligar voz: impedir a função de conversação por voz com o robô;
– Controlar a memória: evitar que o ChatGPT salve interações passadas;
– Restringir o treinamento: impedir que as conversas dos filhos sejam usadas pela OpenAI para treinar o modelo.
Veja abaixo como ativar o controle parental do ChatGPT:
– Vá em Configurações no ChatGPT e clique em “Controle dos pais”. Também é possível acessar diretamente pelo link chatgpt.com/parentalcontrols;
– Envie um convite para seu filho – ele receberá por e-mail ou SMS;
– Depois que o convite for aceito e as contas estiverem vinculadas, os responsáveis poderão ajustar as configurações na própria conta.
Morte
A medida ocorre dias após Matthew e Maria Raine entrarem com ação na segunda-feira em um tribunal do estado da Califórnia acusando o ChatGPT de cultivar uma relação íntima com seu filho Adam por vários meses entre 2024 e 2025, e incentivá-lo ao suicídio.
A denúncia alega que em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodca de seus pais e lhe forneceu uma análise técnica sobre como agir para “potencialmente enforcar um ser humano”. Adam foi encontrado morto horas depois.
“Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado”, disse a advogada Melodi Dincer, que ajudou a preparar a ação legal.
“Essas são as mesmas características que poderiam levar alguém como Adam, com o tempo, a começar a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas”, afirmou Dincer.
A advogada disse que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes.
“Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas. Resta ver se farão o que dizem que farão e quão eficaz será no geral”, apontou.
O caso dos Raine foi apenas o mais recente em uma série de incidentes nos quais pessoas foram incentivadas por chatbots de IA a seguir pensamentos delirantes ou prejudiciais, o que levou a OpenAI a anunciar que reduziria a “bajulação” dos modelos aos usuários.
Aviso de conversas sensíveis
Dentro do controle parental, o ChatGPT ganhou um recurso que alerta os pais quando um adolescente tem conversas consideradas sensíveis ou problemáticas.
Se a tecnologia identificar o que chama de “danos potenciais”, uma equipe treinada da OpenAI analisará a situação.
A própria OpenAI diz que entrará em contato com os responsáveis por e-mail, SMS e notificação no celular.
“Sabemos que alguns adolescentes recorrem ao ChatGPT durante momentos difíceis. Por isso, criamos um sistema de notificação para ajudar os pais a saber se algo pode estar seriamente errado”, informou a companhia.