Domingo, 09 de novembro de 2025
Por Redação O Sul | 8 de setembro de 2025
Uma pesquisa rápida no X, antigo Twitter, mostra um uso do ChatGPT que tem se tornado comum: em vez de perguntas sobre rotina ou estudos, usuários fazem upload de exames médicos e pedem ao chatbot que forneça uma explicação ou um diagnóstico sobre o caso. A abordagem, embora perigosa do ponto de vista da interpretação médica, tem sido respaldada pela OpenAI que, desde o lançamento do GPT-5, afirma que a inteligência artificial (IA) pode dar conta do recado. Os especialistas, porém, afirmam que é preciso cuidado na hora de confiar no chatbot.
Após o lançamento do GPT-5, novo “cérebro” do ChatGPT, a empresa adicionou em seu site algumas diretrizes sobre a capacidade melhorada do modelo de entender e responder corretamente algumas questões sobre saúde — esse foi um dos principais chamarizes da apresentação do novo modelo. A empresa afirma que o chatbot não substitui a consulta médica. “Pense nele como um parceiro que ajuda você a entender resultados, faça as perguntas certas quando estiver com seu médico e analise as opções ao tomar decisões”, explica.
O uso de IA na medicina é apontado como uma das áreas em que a tecnologia mais pode contribuir para o avanço do bem-estar da sociedade, com potencial para destravar novas drogas, tratamentos, análise de exames e até aumento da cobertura médica em regiões remotas. Porém, é o uso indiscriminado da IA generativa, o campo representado pelo ChatGPT, que gera temores. O exemplo mostrado pela OpenAI na estreia do GPT-5 deixa dúvidas se a companhia mira apenas o uso didático ou a substituição médica em momentos importantes.
Durante a apresentação, a empresa exibiu a história de uma paciente com diagnóstico de câncer, apresentada como Carolina. Na conversa com Sam Altman, fundador da OpenAI, Carolina afirmou que após conversar com médicos e realizar exames, decidiu pedir também a ajuda do ChatGPT para avaliar se começava ou não um tratamento de radioterapia.
“Uma das maneiras que considero mais eficaz (sobre uso do ChatGPT) é me ajudar a tomar decisões críticas e me proteger. Quando eu estava enfrentando a decisão de fazer ou não radioterapia, os próprios médicos não concordavam. Meu caso era complexo e não havia um consenso médico sobre o caminho certo a seguir. Os especialistas devolveram a decisão para mim, como paciente. Para mim, carregar o peso dessa decisão era muito difícil, e eu não me sentia preparada para tomá-la. Recorri ao ChatGPT para obter conhecimento e entender as nuances do meu caso e, em poucos minutos, ele me deu uma análise que não só correspondia ao que os médicos já haviam compartilhado conosco, mas era muito mais completa do que qualquer coisa que pudesse caber em uma consulta de 30 minutos. Isso me ajudou a tomar uma decisão em que eu senti que estava informada”, afirma Carolina em seu relato.
Embora seja um caso em que o chatbot foi usado para explicar diagnósticos que já foram fornecidos por médicos, o exemplo abre um precedente perigoso na área de saúde. O temor é de que os usuários passem a confiar apenas em chatbots espertos e não retornem aos médicos após exames ou ignorem os diagnósticos de profissionais, afirma Felipe Campos Kitamura, Diretor Médico na Bunkerhill Health e Professor Afiliado na Unifesp.
“A IA é extremamente persuasiva, mesmo quando ele erra. Acho que isso está criando esse efeito de doutor GPT, em que os pacientes vão estar mais certos em uma proporção muito maior dos casos. Só que com isso vem um risco: a IA não deixa claro em quais situações ela está errada. Esse é o maior risco de todos, de a pessoa se pautar só na resposta do ChatGPT, sem ter um crivo de um profissional de saúde”, aponta Kitamura. Com informações do portal Estadão.