Sábado, 27 de abril de 2024

Porto Alegre
Porto Alegre, BR
22°
Thunderstorm

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail ou WhatsApp.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

Geral O “profeta” do escândalo do Facebook fez um alerta sobre o reconhecimento facial

Compartilhe esta notícia:

Após o coronavírus, o mundo nunca mais será o mesmo. (Foto: Reprodução)

Michal Kosinski sabe que causa controvérsia. Psicólogo e professor assistente da Universidade Stanford, o polonês de 37 anos descreveu, anos antes de ser descoberto, o mecanismo por trás da maior crise da história do Facebook. Em artigo de 2013, ele chamou atenção para o uso de curtidas e testes para decifrar a personalidade de uma pessoa. A estratégia foi usada pela consultoria política Cambridge Analytica para influenciar a opinião pública em episódios como as eleições americanas de 2016. De profeta, Kosinski passou a ser considerado cúmplice na manobra. Agora, faz novo alerta: abusos no uso de inteligência artificial para reconhecimento de rostos humanos.

“Empresas e governos estão usando tecnologia para identificar não só as pessoas, mas também características e estados psicológicos, causando riscos sérios à privacidade”, diz o pesquisador, em entrevista exclusiva ao Estado. Nos últimos anos, ele tem dedicado seus estudos a mostrar como a tecnologia de reconhecimento facial pode ser usada para discriminar pessoas. Para exemplificar, escolheu uma abordagem espinhosa: mostrar que um algoritmo pode olhar para fotos de pessoas em redes sociais e adivinhar sua orientação sexual com precisão maior do que humanos fariam.

Cara a cara

No estudo, o polonês utilizou um algoritmo de reconhecimento facial disponível de graça na internet, o VGG Face. O sistema foi alimentado com 35 mil fotos de rostos encontradas em redes sociais. A máquina tinha um desafio: ao ser apresentada a um par de fotos, com uma imagem de um heterossexual e uma de um homossexual, ela deveria ser capaz de apontar qual das pessoas tinha a maior probabilidade de ser gay.

A máquina teve taxa de acerto de 81% no caso de homens e 71% no caso de mulheres – já julgadores humanos tiveram 61% e 54%, respectivamente. Ao analisar cinco fotos das mesmas pessoas, a precisão da máquina subiu para 91% (homens) e 83% (mulheres).

“O estudo não tenta entender o que causa diferenças entre gays e héteros, mas mostrar que há mecanismos que trabalham para isso, como o fato de que características psicológicas e sociais afetam nossa aparência”, explica Kosinski. “Para os humanos, é difícil detectá-las, mas os algoritmos são muito sensíveis e podem fazer previsões precisas.”

Publicados em 2017 na revista The Economist, os resultados da pesquisa provocaram polêmica. Dois grupos LGBTQ+ dos EUA, o Human Rights Campaign e o Glaad, consideraram o estudo falho e perigoso, enquanto pesquisadores questionaram seu método, linguagem e propósito.

Para Kosinski, há paralelos na reação das pessoas entre seu estudo sobre o Facebook e sobre reconhecimento facial. “Quando alertei para o monitoramento de curtidas, as pessoas riram dos meus resultados. Ao descobrir sobre a Cambridge Analytica, passaram a me levar a sério”, conta. “De repente, começaram a me culpar por alertar sobre o problema, mesmo não sendo o autor dessa tecnologia.” Mas é difícil ignorar sua conexão com o caso.

A mudança de foco do pesquisador acompanha as tendências da internet, como o crescimento da interação baseada em imagens. Um exemplo é o Instagram, maior rede social de fotos e vídeos do mundo. Entre 2013 e 2018, a plataforma, que também é do Facebook, cresceu mais de dez vezes e hoje tem mais de 1 bilhão de usuários compartilhando selfies e fotos de amigos em todo o mundo.

Perdas e danos

O polonês não se importa com as reações e crê ter atingido seu objetivo: mostrar a facilidade de se construir um algoritmo capaz de estabelecer conclusões como a orientação sexual, religiosa ou política de uma pessoa.

Independentemente de estarem certos ou errados, sistemas com essa missão podem gerar danos à sociedade se forem usados. “Há startups e companhias que oferecem previsões básicas gratuitas na internet. É uma tecnologia acessível – e pode estar em aeroportos ou postos de fiscalização de imigrantes”, diz.

Há até lugares em que isso já está sendo posto em prática: na China, há relatos de que o governo usa reconhecimento facial para catalogar e vigiar os uighurs, uma minoria étnica muçulmana. Já cidadãos chineses são monitorados para a obtenção de crédito pessoal.

“Não dá para a sociedade se transformar numa sociedade preditiva, na qual não posso ter um emprego por ter 72% de chance de ter determinado comportamento”, avalia Sérgio Amadeu, professor da Universidade Federal do Grande ABC. “Isso retira das pessoas, bem como da sociedade, a capacidade de livre arbítrio.”

 

Compartilhe esta notícia:

Voltar Todas de Geral

A Caixa lança um cartão de crédito com juros mais baixos e sem a cobrança da anuidade
Disputa para substituir primeira-ministra esquenta Reino Unido
https://www.osul.com.br/o-profeta-do-escandalo-do-facebook-fez-um-alerta-sobre-o-reconhecimento-facial/ O “profeta” do escândalo do Facebook fez um alerta sobre o reconhecimento facial 2019-05-26
Deixe seu comentário
Pode te interessar