Vários relatos desde o começo do ano apontam que o Bing, ferramenta de busca da Microsoft (e que atua de forma similar ao Google), tem oferecido comentários e respostas desequilibradas desde que passou a ter o seu sistema incrementado por tecnologia de inteligência artificial. Comentários apontam que o mecanismo chegou a cometer ofensas, mentiras e até tentou “manipular emocionalmente” alguns usuários mais questionadores.
A gigante da informática promete utilizar essas informações para melhorar a precisão das respostas e até mesmo o tom com que são dadas. E também faz uma ressalva: longas sessões de bate-papo podem causar problemas.
Dentre as conclusões nesse sentido está a de que diálogos com mais de 15 perguntas (principalmente se apresentarem teor mais subjetivo) podem confundir o buscador, cujo funcionamento tem por base a inteligência artificial. Isso estaria acontecendo porque elas podem fazer com que o Bing se torne repetitivo ou passe a oferecer respostas pouco úteis e até fora do tom esperado.
Cenário
Após uma semana de testes públicos (abertos aos cidadãos), a equipe do Bing admitiu não ter previsto que as pessoas pudessem usar a interface de bate-papo para entretenimento social ou mesmo como uma ferramenta de “descoberta geral do mundo”.
Como melhoria, a Microsoft trabalha na possibilidade de adicionar uma espécie de ferramenta onde é possível atualizar o contexto das informações buscadas. Enquanto isso, sugere como ação preventiva que os usuários apaguem os históricos de bate-papo sempre que possível, principalmente quando mudarem de assunto: ao começar do zero a próxima “conversa”, a inteligência artificial terá menos parâmetros para “se agarrar”.
Problemas
A questão mais apontada pelos usuários é que o Bing passou a usar um tom incorreto durante conversas mais longas. Nesse contexto, a Microsoft diz que este problema demora a aparecer para boa parte dos usuários, no entanto a empresa garante já estar trabalhando para que haja um controle mais preciso.
O objetivo é impedir que a ferramenta comece a dizer às pessoas, por exemplo, que elas estão erradas. Ou então agir de forma rude e manipuladora. Em meio a tantas críticas, o recurso continua em testes de revisão em pelo menos 169 países. E a Microsoft destaca que o feedback sobre as respostas foi considerado 71% positivo.