Sábado, 07 de junho de 2025
Por Redação O Sul | 6 de junho de 2025
Uma sentença da 5ª Vara Cível da Comarca de Niterói (RJ) condenou o Google por erro em informação gerada por sua inteligência artificial (IA), a Gemini, que indicou um empresário do mercado de videogames como dono de uma casa de apostas on-line. Segundo o processo, supostas vítimas da bet começaram a acusar o empreendedor de roubar o dinheiro das apostas e fizeram até ameaças de morte por e-mail.
Para o juiz Alberto Republicano de Macedo Junior, a big tech tem responsabilidade pela informação errada, divulgada no mecanismo de busca. Ele classificou o episódio como “uma falha da empresa” e obrigou o Google a fazer a dissociação do conteúdo. Determinou ainda o pagamento de indenização por danos morais em R$ 20 mil.
A IA indicava o empresário Marcelo Tavares, dono da Brasil Game Show (BGS), feira anual de videogames, como o dono da bet 7Games. “Entendo que as informações inverídicas fornecidas pela plataforma da ré, inverossímeis, são de responsabilidade da ré e causaram danos ao autor, que recebeu ameaças por e-mail de consumidores das plataformas de apostas”, afirma o magistrado.
Segundo especialistas, são poucos os casos sobre o assunto no Judiciário. Como ainda não há lei que regulamente o uso da IA nem detalhe como deve ser a responsabilização das plataformas, a Justiça é que tem dado as balizas, caso a caso. O projeto de Lei nº 2.338, de 2023, que institui o Marco Legal da IA, poderia traz mais segurança jurídica e direcionar os magistrados do país, acrescentam especialistas. Aprovado no Senado, o texto tramita na Câmara dos Deputados.
Decisão similar envolvendo a IA do buscador Bing, da Microsoft, também responsabilizou a empresa de tecnologia. Nesse processo, a ferramenta havia acusado um médico de cometer dezenas de assédios sexuais, mas, na verdade, ele fazia parte da comissão regional de medicina que investigava os delitos. A sentença foi dada pela 7ª Vara Cível de Bauru (SP), em 2023. O processo está em sigilo e o escritório Bagagli e Moreno Advocacia, que atua no caso, não quis comentar o assunto, nem a Microsoft.
Segundo o advogado Thiago Nicolay, sócio do Nicolay Advogados e que representa o empresário no caso do Google, a informação divulgada pela IA começou a aparecer no resultado de busca após uma entrevista que Tavares deu à imprensa com a recomendação de sete jogos. A partir daí, a ferramenta passou a entender que o empresário era o dono da 7Games.
“As pessoas que foram prejudicadas com a bet passaram a demandar uma explicação a meu cliente, inclusive com ameaças de morte”, diz. “Ele ficou preocupado e propusemos a demanda judicial contra o Google para que fosse obrigado a corrigir esse equívoco”, acrescenta. Antes da sentença, a Justiça concedeu uma liminar para que fosse derrubado o conteúdo do ar.
Na visão dele, o problema não era a matéria publicada. “A matéria está correta e foi uma entrevista que ele concedeu. A questão foi a IA do Google ter se equivocado pegando essa matéria onde ele indica sete jogos e fazer a correlação de que meu cliente era proprietário da 7Games.” A decisão já foi cumprida e o Google não recorreu, segundo o advogado.
Houve a tentativa de resolver a questão de maneira extrajudicial, mas a big tech não retificou a informação, só com a decisão judicial. Nos autos, a empresa defende que não deveria ser a responsável pelo conteúdo, gerado por um jornal. Afirma ainda que não teria poder para excluir a informação, pois sua inteligência artificial apenas organiza as informações nas páginas já disponíveis na internet.
“A tutela pretendida em face da Google é inútil e desnecessária, porque a remoção do resultado de busca, por si só, não impede o acesso ao conteúdo por outros meios”, diz a companhia nos autos. Mas o argumento não prevaleceu. Para o magistrado do caso, “a parte ré é legítima, visto que o alegado dano é proveniente da inteligência artificial da empresa ré”.
Na visão da advogada especialista em Direito Digital Patrícia Peck, sócia-fundadora do Peck Advogados e membro da Comissão de Proteção de Dados da Corregedoria Nacional de Justiça (CPD/CNJ), mesmo que o Google, assim como outras plataformas, indiquem que suas IAs podem conter erros, isso não é suficiente para eximir de responsabilidade o desenvolver da aplicação.
“A IA, no resumo, distorceu o conteúdo original. Se a distorção por um erro associativo do conteúdo original existe, há responsabilidade pela falha e deve ser feita tanto a correção da informação quanto o ressarcimento pelo dano causado”, afirma. Ela defende uma atualização da legislação sobre o tema, para evitar “insegurança jurídica em que cada magistrado entenda de forma diferente”.
Patrícia sugere ainda que o processo de correção a ser feito pelas plataformas deveria ser transparente. “Hoje o usuário pode reportar um erro, mas é preciso uma transparência do mecanismo de como aquilo vai ser apurado”, diz. A questão é que, muitas vezes, acrescenta, esse tipo de informação é sigilosa, por fazer parte do segredo de negócio – assim como a maneira pela qual a IA chegou a determinada resposta.
O advogado Henrique Fabretti, CEO do Opice Blum Advogados, lembra que nem mesmos os executivos à frente das plataformas sabem exatamente os limites das IAs generativas, modelos baseados na predição. “Existem algumas pesquisas que indicam que as alucinações geradas por IA não são uma falha do sistema, mas uma característica. Pela forma que é construído, nunca é possível de ser eliminado”, diz Fabretti, indicando que não é consenso entre estudiosos. As informações são do jornal Valor Econômico.