Segunda-feira, 05 de maio de 2025
Por Redação O Sul | 4 de julho de 2023
Homens mais bonitos da Síria e de Uganda por IA.
Foto: Reprodução/RedditEsses homens não existem de verdade. Mas, se existissem, seria os mais bonitos em seus países de origem. Com a ajuda da inteligência artificial, um usuário do Reddit gerou imagens dos rostos de rapazes que representariam o ápice da beleza em cada localidade.
Para isso, o homem usou a plataforma Midjourney, que levou em conta os traços e as características de cada etnia e nacionalidade para gerar 20 imagens de homens.
Na foto de destaque desta reportagem, estão os homens mais bonitos da Síria e de Uganda, por exemplo. Há também representações de países como Estados Unidos, República Dominicana, México, Islândia, República Centro-Africana, Grécia, entre outros.
O trabalho do usuário viralizou no Reddit. Alguns internautas apontaram que os homens pareciam “personagens” da Disney. Outros apontaram que as imagens, de fato, representavam os traços de cada país.
No entanto, a postagem não ficou imune a críticas, em especial daqueles que viram um único padrão de beleza ser reproduzido, com poucos ajustes, para cada nacionalidade.
Outros experimentos
Em um experimento realizado com 697 voluntários submetidos a tuítes noticiosos escritos por humanos e pelo ChatGPT, a maioria foi incapaz de distinguir se as informações eram escritas pelo sistema de inteligência artificial. A pesquisa usou como material informações reais e falsas, e as fake news criadas pelo robô foram avaliadas como verdadeiras com mais frequência.
O estudo que apontou o resultado preocupante foi conduzido pesquisadores da Universidade de Zurique (Suíça) e publicado nesta quarta-feira no periódico acadêmico Science Advances. A pesquisa é a primeira a abordar de forma empírica e controlada a preocupação de que o sistema criado pela empresa OpenAI tem o potencial de ampliar o ambiente de desinformação na internet.
Os cientistas, liderados pelo bioeticista italiano Giovanni Spitale, consideraram que o uso da inteligência artificial pelo GPT-3, a versão do sistema usada no estudo, é uma “faca de dois gumes” no ambiente de notícias.
“Em comparação com os humanos, ele pode produzir informações precisas que são mais fáceis de entender, mas também pode produzir desinformação mais convincente”, escreveram os autores do artigo. “Também mostramos que humanos não conseguem distinguir entre tuítes gerados pelo GPT-3 e escritos por usuários reais do Twitter.”