Ícone do site Jornal O Sul

Ferramenta de busca com inteligência artificial insulta, mente e tenta manipular pessoas

Problemas foram relatados durante mensagens mais longas e subjetivas. (Foto: Divulgação)

Vários relatos desde o começo do ano apontam que o Bing, ferramenta de busca da Microsoft (e que atua de forma similar ao Google), tem oferecido comentários e respostas desequilibradas desde que passou a ter o seu sistema incrementado por tecnologia de inteligência artificial. Comentários apontam que o mecanismo chegou a cometer ofensas, mentiras e até tentou “manipular emocionalmente” alguns usuários mais questionadores.

A gigante da informática promete utilizar essas informações para melhorar a precisão das respostas e até mesmo o tom com que são dadas. E também faz uma ressalva: longas sessões de bate-papo podem causar problemas.

Dentre as conclusões nesse sentido está a de que diálogos com mais de 15 perguntas (principalmente se apresentarem teor mais subjetivo) podem confundir o buscador, cujo funcionamento tem por base a inteligência artificial. Isso estaria acontecendo porque elas podem fazer com que o Bing se torne repetitivo ou passe a oferecer respostas pouco úteis e até fora do tom esperado.

Cenário

Após uma semana de testes públicos (abertos aos cidadãos), a equipe do Bing admitiu não ter previsto que as pessoas pudessem usar a interface de bate-papo para entretenimento social ou mesmo como uma ferramenta de “descoberta geral do mundo”.

Como melhoria, a Microsoft trabalha na possibilidade de adicionar uma espécie de ferramenta onde é possível atualizar o contexto das informações buscadas. Enquanto isso, sugere como ação preventiva que os usuários apaguem os históricos de bate-papo sempre que possível, principalmente quando mudarem de assunto: ao começar do zero a próxima “conversa”, a inteligência artificial terá menos parâmetros para “se agarrar”.

Problemas

A questão mais apontada pelos usuários é que o Bing passou a usar um tom incorreto durante conversas mais longas. Nesse contexto, a Microsoft diz que este problema demora a aparecer para boa parte dos usuários, no entanto a empresa garante já estar trabalhando para que haja um controle mais preciso.

O objetivo é impedir que a ferramenta comece a dizer às pessoas, por exemplo, que elas estão erradas. Ou então agir de forma rude e manipuladora. Em meio a tantas críticas, o recurso continua em testes de revisão em pelo menos 169 países. E a Microsoft destaca que o feedback sobre as respostas foi considerado 71% positivo.

Sair da versão mobile