Domingo, 13 Setembro 2020 00:11

De novo: reconhecimento facial incrimina erroneamente pessoas negras


Há inúmeros debates sobre o uso de tecnologias de reconhecimento facial como prova condenatória de crimes. Por utilizarem testes em pessoas brancas, os algoritmos possuem uma probabilidade entre cinco e dez vezes
mais de errar o reconhecimento facial em pessoas negras.Primeiro é preciso compreender como funciona um algoritmo de reconhecimento facial. Para que os algoritmos funcionem, é preciso usar um modelo para treinar a inteligência artificial. A maioria desses modelos é baseada em imagens de pessoas brancas ou asiáticas.Isso significa que um algoritmo de reconhecimento facial consegue identificar mais facilmente asiáticos e brancos do que pessoas negras, em especial, mulheres negras.Aprendizagem de máquinaCarros autônomos fazem uso da tecnologia para diferenciarem pessoas, animais, outros veículos e objetos. Fonte: ShutterstockDito isso, resultados de uma análise feita em julho de 2019, mostraram que o software de uma das maiores empresas de reconhecimento facial, a francesa Idemia, possui mais chances de identificar de forma incorreta mulheres negras do que mulheres brancas ou homens brancos e negros.Em configurações de sensibilidade, o algoritmo identificou de forma errada mulheres brancas numa taxa de uma para cada 10 mil, no caso de mulheres negras, a taxa foi de uma para 1.000, ou seja, dez vezes mais propício a errar o reconhecimento facial em mulheres negras.Segundo o NIST (National Institute of Standards and Technology), em 2018, os algoritmos de inteligência artificial se tornaram 25 vezes melhores do que antes. E erram em cerca de 0,2%. No entanto, essas estatísticas não são as mesmas para pessoas negras.Isto ficou bem visível em um caso ocorrido em 2019, em que um homem chamado Robert William foi preso, na frente da sua esposa e das suas duas filhas. Ele fora acusado de ser o autor de um roubo de relógio em uma joalheria. A polícia de Detroit exibiu a imagem de William para um segurança do shopping em que ocorreu o roubo, o problema é que o segurança não presenciou o crime.Só haviam duas semelhanças entre Robert e o real culpado pelo crime: eles estavam acima do peso e eram negros.Imagem do IBM WatsonIBM parou temporariamente suas vendas de sistema de reconhecimento facial para os órgãos de polícia norte-americanos. Fonte: Shutterstock/ReproduçãoTais erros motivaram as gigantes de tecnologias a pararem, temporariamente, as vendas dos seus produtos de reconhecimento facial. Empresas como IBM, Microsoft e Amazon encerraram suas vendas em junho de 2020 para órgãos de polícia americanos e solicitaram ao congresso uma lei que regulasse o uso do reconhecimento facial.Infelizmente, os estudos que demonstraram que tais tecnologias não são eficazes no reconhecimento de pessoas negras não foram suficientes para evitar que outra pessoa fosse acusada de um crime que não cometeu. E na mesma cidade em que Robert William foi preso.O caso ocorreu em julho de 2020. Michael Oliver foi acusado de ter jogado o telefone de um professor no chão, quebrando sua tela. Ele foi condenado pelo crime de furto pelo incidente que ocorreu em maio de 2019.São exibidas duas fotos. Na esquerda, uma imagem do verdadeiro culpado pelo crime. E na direita, a foto do Michael Oliver.À esquerda, uma foto do suspeito de pegar o celular do professor. À direita, uma foto de Michael Oliver, acusado injustamente pelo crime. Fonte: Detroit Free Press/ReproduçãoO uso de tecnologia de reconhecimento facial deve ser feito com extrema cautela, em especial por órgãos de defesa como as polícias. Um exemplo disto é um estudo que mostra que a tecnologia erraria em 96% dos casos de identificação de suspeitos na polícia de Detroit e que demonstra a ineficácia da tecnologia no combate ao crime.Fonte: Detroit Free Press 
Ler 12 vezes

Atendimento ao Cliente:  Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo.

Suporte ao Cliente:  Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo.

Depto financeiro:  Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo.

Publicidade & Propaganda: Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo.

 

Notícias

Vídeos

Guia Comercial

Nossa Empresa

Please publish modules in offcanvas position.