Terça-feira, 23 de abril de 2024

Porto Alegre
Porto Alegre, BR
28°
Partly Cloudy

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail ou WhatsApp.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

Geral O reconhecimento facial da polícia de Londres erra em 81% dos casos

Compartilhe esta notícia:

O estudo descobriu que, das 42 pessoas que foram identificadas pelo sistema, apenas oito estavam mesmo na lista de procurados da polícia. (Foto: Reprodução)

A primeira avaliação independente do sistema de reconhecimento facial usado pela polícia de Londres mostra um dado preocupante: de acordo com o estudo, os sistema de reconhecimento facial possui uma taxa de erro de assombrosos 81%.

O estudo, conduzido pela Universidade de Essex, analisou todos os casos onde o sistema de reconhecimento foi usado pela polícia para apreender pessoas desde a instalação dele, em 2016. O estudo descobriu que, das 42 pessoas que foram identificadas pelo sistema, apenas oito estavam mesmo na lista de procurados da polícia. E, considerando que nesse período 10 suspeitos foram levados a julgamento por terem sido identificados por essas câmeras, isso quer dizer que pelo menos duas pessoas inocentes foram obrigadas a passar por todo o processo criminal de prisão.

Desde 2016, a polícia de Londres utiliza o sistema de identificação facial Neoface da NEC que, com base nas câmeras de vigilância da cidade, promete reconhecer suspeitos foragidos e identificá-los para as autoridades. Apesar do estudo da Universidade revelar como o sistema é ineficiente, a polícia de Londres discorda dele, e afirma que possui provas de que o sistema possui uma margem de erro de apenas um em cada mil identificações — mas não revela para ninguém o estudo completo ou até mesmo a metodologia usada para se chegar a esse número.

O estudo da Universidade de Essex deixa claro que um dos principais pontos dos críticos deste tipo de sistema de reconhecimento está correto: o fato deles ainda não terem a precisão necessária para serem tratados como provas criminais. Por isso mesmo, no mês passado a cidade de São Francisco proibiu o uso de qualquer tipo de ferramenta de reconhecimento facial por seus órgãos de segurança. E, enquanto esses sistemas não forem realmente acurados, esse deverá ser um caminho tomado por departamentos de polícia em todo o mundo.

Reforço de preconceito racial

Como os negros representam 13% da população americana, mas 37,5% da massa carcerária do país, algoritmos mal escritos alimentados por dados enviesados podem prever que negros são mais propensos a cometer crimes.

Não é preciso ser um gênio para descobrir que implicações isso pode ter para o policiamento e as políticas sociais.

Um britânico, Ed Bridges, começou uma batalha legal contra o uso do reconhecimento facial pela Polícia de South Wales depois que sua foto foi tirada enquanto ele fazia compras, e a comissária de informação do Reino Unido, Elizabeth Denham, expressou preocupação com a falta de estrutura jurídica para a utilização de tal recurso.

Mas tais preocupações não impediram a Amazon de vender sua ferramenta Rekognition FR para forças policiais nos EUA, apesar da revolta – infrutíera – de parte dos acionistas.

A Amazon diz que não tem responsabilidade sobre como os clientes usam o instrumento. Mas basta comparar essa atitude com a da Salesforce, uma empresa de tecnologia que desenvolveu sua própria ferramenta de reconhecimento chamada Einstein Vision, para perceber que é necessário um envolvimento maior das empresas.

“A tecnologia de reconhecimento facial pode ser adotada em uma prisão para rastrear prisioneiros ou evitar a violência entre gangues”, disse Kathy Baxter, gerente de prática ética de Inteligência Artificial da Salesforce, à BBC. “Mas quando a polícia quis usá-la ao prender pessoas, consideramos isso inadequado.”

“Precisamos nos perguntar se devemos usar a Inteligência Artificial em alguns cenários.”

Ainda mais porque o reconhecimento facial também está sendo usado pelos militares, com os fornecedores da tecnologia alegando que seus softwares podem não apenas identificar inimigos em potencial, como também discernir comportamentos suspeitos.

Yves Daccord, diretor-geral do Comitê Internacional da Cruz Vermelha, está preocupado com esses fatos.

“A guerra é de alta tecnologia nos dias de hoje – temos drones autônomos, armas autônomas, tomando decisões entre combatentes e não combatentes. Suas decisões estarão corretas? Eles poderiam ter um impacto de destruição em massa”, alerta.

De todo modo, parece haver um crescente consenso global de que a tecnologia de reconhecimento está longe de ser perfeita e precisa ser regulada.

“Não é uma boa ideia deixar a Inteligência Artificial nas mãos do setor privado, porque ela pode ter uma grande influência”, conclui o Chaesub Lee, diretor do escritório de padronização de telecomunicações da União Internacional de Telecomunicações.

“O uso de dados de boa qualidade é essencial, mas quem garante que esses são bons dados? Quem garante que os algoritmos não são tendenciosos? Precisamos de uma abordagem multidisciplinar das várias partes interessadas.”

Até lá, o reconhecimento facial permanece sob suspeita.

Compartilhe esta notícia:

Voltar Todas de Geral

Inteligência artificial é aposta do governo para acelerar análise de 15 mil convênios
O ministro brasileiro das Relações Exteriores clama pela “liberdade da Venezuela” durante evento em Brasília
https://www.osul.com.br/o-reconhecimento-facial-da-policia-de-londres-erra-em-81-dos-casos/ O reconhecimento facial da polícia de Londres erra em 81% dos casos 2019-07-06
Deixe seu comentário
Pode te interessar