Terça-feira, 09 de dezembro de 2025
Por Redação O Sul | 8 de dezembro de 2025
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos.
Foto: ReproduçãoRepresentantes de vendas da Wolf River Electric, empresa de energia solar em Minnesota, notaram no fim do ano passado um aumento incomum no número de contratos cancelados. Ao buscar explicações com os antigos clientes, receberam respostas inesperadas: muitos disseram ter desistido do serviço após encontrar, em buscas no Google, informações de que a companhia teria firmado um acordo judicial com o procurador-geral do estado por práticas comerciais enganosas — algo que jamais ocorreu.
A preocupação aumentou quando os próprios executivos da empresa verificaram os resultados. No topo da página de buscas, o Gemini, sistema de inteligência artificial do Google, exibia respostas falsas mencionando um suposto acordo judicial. Além disso, a referência aparecia automaticamente na caixa de pesquisa ao digitar “Wolf River Electric”. Sem conseguir reverter o problema pelas ferramentas da plataforma e diante do impacto direto nos negócios, a empresa decidiu processar o Google por difamação.
“Investimos muito tempo e energia para construir uma boa reputação”, afirmou Justin Nielsen, fundador da Wolf River, criada em 2014 e hoje a maior empresa de energia solar de Minnesota. “Quando os clientes veem um alerta como esse, é quase impossível reconquistá-los.”
O caso da Wolf River se soma a pelo menos seis ações semelhantes abertas nos Estados Unidos nos últimos dois anos, todas relacionadas a conteúdo gerado por ferramentas de inteligência artificial que produzem informações falsas e prejudiciais. Os autores alegam que as empresas responsáveis pelos modelos não apenas permitiram a publicação das informações, como também seguiram exibindo o conteúdo mesmo após serem notificadas sobre os erros.
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos. “Não há dúvida de que esses modelos podem publicar afirmações prejudiciais”, afirmou Eugene Volokh, especialista em Primeira Emenda da UCLA. “A questão é: quem é o responsável por isso?”
Um dos primeiros casos desse tipo foi aberto em 2023, na Geórgia. Mark Walters, apresentador de rádio e defensor do direito ao porte de armas, afirmou que o ChatGPT prejudicou sua reputação ao responder a uma pergunta de um jornalista com a falsa alegação de que ele teria sido acusado de desvio de dinheiro. A ação tentava responsabilizar a OpenAI, criadora do modelo.
“Frankenstein não pode criar um monstro que sai por aí matando pessoas e depois alegar que não tem nada a ver com isso”, disse o advogado de Walters, John Monroe. O processo foi arquivado meses depois. A juíza responsável destacou que o jornalista não acreditou na alegação e rapidamente verificou que ela era falsa — fator decisivo, já que a caracterização de difamação exige que terceiros considerem a informação plausível.
Nenhum caso de difamação por IA nos EUA chegou a julgamento, mas um deles terminou em acordo. Robby Starbuck, influenciador de direita, processou a Meta após encontrar na rede X uma imagem gerada pelo Llama, chatbot da empresa, com informações falsas afirmando que ele esteve no Capitólio em 6 de janeiro de 2021 e que tinha ligações com a teoria conspiratória QAnon. Starbuck disse que estava em casa, no Tennessee.
A Meta encerrou o caso em agosto, sem responder formalmente à queixa. Como parte do acordo, contratou Starbuck como consultor para trabalhar em políticas de moderação de IA. A empresa afirmou, em comunicado, que avançou na melhoria da precisão de seus sistemas e na redução de vieses. Os termos adicionais do acordo não foram divulgados.