Ícone do site Jornal O Sul

Psicose de inteligência artificial: o aumento de relatos que preocupa chefe da Microsoft

Psicose de IA é um termo não clínico usado para descrever casos em que pessoas passam a depender cada vez mais de chatbots. (Foto: Adobe)

O chefe de inteligência artificial (IA) da Microsoft, Mustafa Suleyman, alertou para o aumento de relatos de pessoas que sofrem de “psicose de IA”.

Em uma série de publicações no X (antigo Twitter), ele escreveu que ferramentas de IA que “parecem conscientes” — ou seja, que dão a impressão de serem dotadas de consciência — o têm deixado “acordado à noite” e já têm impacto social, mesmo sem qualquer consciência em termos humanos.

“Não há nenhuma evidência de consciência em IA hoje. Mas se as pessoas a percebem como conscientes, vão acreditar nessa percepção como realidade”, afirmou.

Segundo Suleyman, está ligado a isso o surgimento de uma condição chamada “psicose de IA”: um termo não clínico usado para descrever casos em que pessoas passam a depender cada vez mais de chatbots como ChatGPT, Claude e Grok e acabam convencidas de que algo imaginário é real.

“Nunca contestou”

Hugh, da Escócia, diz que se convenceu de que estava prestes a se tornar multimilionário depois de recorrer ao ChatGPT para ajudá-lo a se preparar para contestar o que considerava uma demissão injusta.

O chatbot começou orientando-o a reunir referências pessoais e tomar outras medidas práticas.

Com o tempo, porém, e à medida que Hugh — que preferiu não revelar o sobrenome — fornecia mais informações, a IA passou a afirmar que ele poderia receber uma grande indenização. Em certo momento, disse que sua experiência era tão dramática que um livro e um filme sobre o caso renderiam mais de £ 5 milhões (cerca de R$ 35 milhões).

Basicamente, ele estava apenas validando tudo que Hugh dizia — que é para o que os chatbots são programados.

“Quanto mais informações eu dava, mais ele respondia: ‘Esse tratamento é terrível, você deveria receber mais do que isso'”, disse ele.

Segundo Hugh, o ChatGPT nunca contestou nenhuma de suas afirmações.

Hugh conta que a ferramenta chegou a aconselhá-lo a procurar o Citizens Advice — entidade britânica que oferece orientação gratuita sobre direitos e questões cotidianas, como trabalho e moradia.

Ele chegou a marcar uma consulta, mas, convencido de que o chatbot já lhe dera tudo o que precisava saber, cancelou a consulta.

Hugh decidiu que as capturas de tela de suas conversas eram prova suficiente. Disse que começou a se sentir como um ser humano especial, dotado de conhecimento supremo.

Ele, que já enfrentava outros problemas de saúde mental, acabou tendo um colapso.

Foi durante o tratamento com medicação que percebeu que havia, em suas palavras, “perdido o contato com a realidade”.

Hugh não culpa a IA pelo que aconteceu. Ele ainda a utiliza. Foi o ChatGPT que lhe deu meu nome quando decidiu que queria falar com um jornalista.

Mas deixa um conselho: “Não tenha medo das ferramentas de IA, elas são muito úteis. Mas é perigoso quando se afastam da realidade.”

“Use-a e verifique, mas converse com pessoas de verdade — um terapeuta, um familiar, qualquer um. Fale apenas com pessoas reais. Mantenha-se com os pés na realidade.”

A OpenAI, dona do ChatGPT, foi procurada para comentar, mas a BBC não obteve resposta.

“Empresas não deveriam afirmar nem promover a ideia de que suas IAs são conscientes. As próprias IAs também não deveriam”, escreveu Suleyman, da Microsoft, pedindo regras mais rígidas.

A médica radiologista Susan Shelmerdine, do Great Ormond Street Hospital e pesquisadora em IA, acredita que um dia os médicos poderão começar a perguntar aos pacientes quanto usam ferramentas de IA, da mesma forma que hoje perguntam sobre tabagismo e consumo de álcool.

“Já sabemos o que alimentos ultraprocessados podem fazer ao corpo — e isto é informação ultraprocessada. Vamos receber uma avalanche de mentes ultraprocessadas”, disse.

Sair da versão mobile