Quarta-feira, 18 de junho de 2025

Porto Alegre

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail ou WhatsApp.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

| “Robô” da Microsoft volta a falar demais

Compartilhe esta notícia:

Tay foi criado como uma tentativa de atingir a geração Y, sob a forma de um programa automático para redes sociais. (Crédito: Reprodução)

O Tay, sistema de inteligência artificial criado pela Microsoft e abandonado em março, depois de desenvolver tendências racistas, ressurgiu apenas para sair da linha novamente, ao enviar mensagens aleatórias a seguidores no microblog Twitter.

A maioria das novas mensagens da personagem virtual simplesmente dizia “você é rápido demais, por favor, descanse um pouco”. Outros tuítes, no entanto, incluíam palavrões e desculpas como “atribuo isso ao álcool”.

Rapidamente, a Microsoft tirou novamente do ar o “feed” – a ferramenta que busca informações em um site e as leva ao usuário – do Tay no Twitter, desta vez atribuindo o erro a humanos e não à programação. O Tay foi reconectado cedo demais, ainda estando na fase de testes, segundo a empresa.

Posteriormente, em uma conferência anual da Microsoft para programadores, em San Francisco (EUA), o diretor-presidente da empresa, Satya Nadella, apresentou uma série de princípios para o desenvolvimento no futuro de “chatbots”, como são chamados programas que tentam simular humanos em conversas com as pessoas e de outros tipos de assistentes digitais e agentes de inteligência artificial.

Falha reconhecida.
“Rapidamente, percebemos que [o Tay] não era bom o suficiente e, então, voltamos à prancheta”, disse. “Toda tecnologia precisa ser mais inclusiva e respeitosa”, disse Nadella. “Queremos criar tecnologias de forma que captem o melhor da humanidade, não o pior.”

Recentemente, a Microsoft precisou suspender o Tay, depois de o programa ter sido encorajado por usuários humanos do Twitter a fazer comentários racistas, xenófobos e sexistas. O Tay foi criado como uma tentativa de atingir a geração Y, sob a forma de um programa automático para redes sociais capaz de “conversar”, valendo-se de certo grau de inteligência artificial. Mas o programa errou o alvo.

Muitas pessoas começaram a fazer perguntas polêmicas no Twitter, que eram repetidas e respondidas de imediato pelo Tay. O programa mostrou-se muito pronto a concordar com pontos de vista racistas e controversos.

Programa reacionário.
o sistema pareceu apoiar Hitler, teorias conspiratórias sobre os ataques de 11 de setembro de 2001 e os planos de Donald Trump para construir um muro entre os EUA e o México.
A Microsoft se viu obrigada a fazer um longo pedido de desculpas pelos “tuítes ofensivos e nocivos, não intencionais, do Tay”. Usuários do Twitter fizeram um “ataque coordenado [que] explorou [uma] vulnerabilidade do Tay”, alegou a empresa. (AG)

Compartilhe esta notícia:

Voltar Todas de |

Inter derrota o Glória por 3 a 0
Reservadamente, integrantes do Supremo afirmam que há indícios para investigar Dilma por tentativa de obstrução da Justiça
https://www.osul.com.br/robo-da-microsoft-volta-a-falar-demais/ “Robô” da Microsoft volta a falar demais 2016-04-03
Deixe seu comentário
Pode te interessar