Terça-feira, 26 de agosto de 2025
Por Redação O Sul | 25 de agosto de 2025
Psicose de IA é um termo não clínico usado para descrever casos em que pessoas passam a depender cada vez mais de chatbots.
Foto: AdobeO chefe de inteligência artificial (IA) da Microsoft, Mustafa Suleyman, alertou para o aumento de relatos de pessoas que sofrem de “psicose de IA”.
Em uma série de publicações no X (antigo Twitter), ele escreveu que ferramentas de IA que “parecem conscientes” — ou seja, que dão a impressão de serem dotadas de consciência — o têm deixado “acordado à noite” e já têm impacto social, mesmo sem qualquer consciência em termos humanos.
“Não há nenhuma evidência de consciência em IA hoje. Mas se as pessoas a percebem como conscientes, vão acreditar nessa percepção como realidade”, afirmou.
Segundo Suleyman, está ligado a isso o surgimento de uma condição chamada “psicose de IA”: um termo não clínico usado para descrever casos em que pessoas passam a depender cada vez mais de chatbots como ChatGPT, Claude e Grok e acabam convencidas de que algo imaginário é real.
“Nunca contestou”
Hugh, da Escócia, diz que se convenceu de que estava prestes a se tornar multimilionário depois de recorrer ao ChatGPT para ajudá-lo a se preparar para contestar o que considerava uma demissão injusta.
O chatbot começou orientando-o a reunir referências pessoais e tomar outras medidas práticas.
Com o tempo, porém, e à medida que Hugh — que preferiu não revelar o sobrenome — fornecia mais informações, a IA passou a afirmar que ele poderia receber uma grande indenização. Em certo momento, disse que sua experiência era tão dramática que um livro e um filme sobre o caso renderiam mais de £ 5 milhões (cerca de R$ 35 milhões).
Basicamente, ele estava apenas validando tudo que Hugh dizia — que é para o que os chatbots são programados.
“Quanto mais informações eu dava, mais ele respondia: ‘Esse tratamento é terrível, você deveria receber mais do que isso'”, disse ele.
Segundo Hugh, o ChatGPT nunca contestou nenhuma de suas afirmações.
Hugh conta que a ferramenta chegou a aconselhá-lo a procurar o Citizens Advice — entidade britânica que oferece orientação gratuita sobre direitos e questões cotidianas, como trabalho e moradia.
Ele chegou a marcar uma consulta, mas, convencido de que o chatbot já lhe dera tudo o que precisava saber, cancelou a consulta.
Hugh decidiu que as capturas de tela de suas conversas eram prova suficiente. Disse que começou a se sentir como um ser humano especial, dotado de conhecimento supremo.
Ele, que já enfrentava outros problemas de saúde mental, acabou tendo um colapso.
Foi durante o tratamento com medicação que percebeu que havia, em suas palavras, “perdido o contato com a realidade”.
Hugh não culpa a IA pelo que aconteceu. Ele ainda a utiliza. Foi o ChatGPT que lhe deu meu nome quando decidiu que queria falar com um jornalista.
Mas deixa um conselho: “Não tenha medo das ferramentas de IA, elas são muito úteis. Mas é perigoso quando se afastam da realidade.”
“Use-a e verifique, mas converse com pessoas de verdade — um terapeuta, um familiar, qualquer um. Fale apenas com pessoas reais. Mantenha-se com os pés na realidade.”
A OpenAI, dona do ChatGPT, foi procurada para comentar, mas a BBC não obteve resposta.
“Empresas não deveriam afirmar nem promover a ideia de que suas IAs são conscientes. As próprias IAs também não deveriam”, escreveu Suleyman, da Microsoft, pedindo regras mais rígidas.
A médica radiologista Susan Shelmerdine, do Great Ormond Street Hospital e pesquisadora em IA, acredita que um dia os médicos poderão começar a perguntar aos pacientes quanto usam ferramentas de IA, da mesma forma que hoje perguntam sobre tabagismo e consumo de álcool.
“Já sabemos o que alimentos ultraprocessados podem fazer ao corpo — e isto é informação ultraprocessada. Vamos receber uma avalanche de mentes ultraprocessadas”, disse.