Ativistas de direitos civis em alerta sobre a atualização da Amazon adicionando detecção de medo à tecnologia de reconhecimento facial
A mais recente atualização da Amazon para o seu software Rekognition está renovando uma contestação de grupos de direitos civis sobre a tecnologia de reconhecimento facial. A Amazon disse terça-feira que seu algoritmo agora pode detectar o medo da expressão no rosto de uma pessoa.
Esta capacidade de detecção de medo, juntamente com outras sete emoções, agora faz parte do conjunto padrão de recursos para clientes que usam o Amazon Rekognition para identificar pessoas a partir de bancos de dados de imagens e vídeos. Esses clientes incluem várias agências de aplicação da lei, que são uma preocupação fundamental para grupos de direitos civis. A American Civil Liberties Union está pressionando agressivamente por leis que retardem ou interrompam a adoção policial de tecnologia de reconhecimento facial. A ACLU conduziu vários estudos que mostram que o Rekognition identifica pessoas de cor e mulheres com mais frequência do que homens brancos.
A Amazon disse no anúncio esta semana que “melhorou a precisão da emoção. detecção (para todas as 7 emoções: 'Feliz', 'Triste', 'Irritada', 'Surpreendida', 'Repugnada', 'Calma' e 'Confusa') e adicionou uma nova emoção: 'Medo'. ” A atualização da Amazon para o Rekognition vem um dia depois que a ACLU divulgou um novo estudo ligado a um projeto de lei que está sendo considerado na legislatura da Califórnia. A ACLU diz que o software de reconhecimento facial correspondeu falsamente a 26 membros da legislatura da Califórnia com fotos de um banco de dados público. O objetivo do estudo foi encorajar os legisladores a aprovar um projeto de lei que proibiria o software de reconhecimento facial em câmeras corporais usadas pela polícia. “Essas câmeras foram prometidas às comunidades para prestação de contas e transparência aos oficiais, não para vigilância, ”Disse o ACLU do advogado da Califórnia, Matt Cagle, em uma conferência de imprensa. Um porta-voz da Amazon contestou as descobertas da ACLU e forneceu esta declaração. BQ:“ A ACLU está mais uma vez conscientemente usando indevidamente. e deturpar o Amazon Rekognition para fazer manchetes. Como já dissemos muitas vezes no passado, quando usado com o recomendado limite de confiança de 99% e como parte de uma decisão orientada pelo ser humano, a tecnologia de reconhecimento facial pode ser usada para uma longa lista de propósitos benéficos, desde ajudar na identificação de criminosos para ajudar a encontrar crianças desaparecidas para inibir o tráfico humano. Continuamos defendendo a legislação federal de tecnologia de reconhecimento facial para garantir o uso responsável e compartilhamos nossas sugestões específicas para isso, tanto em parceria com os formuladores de políticas quanto em nosso blog. ”
O limite de confiança é uma configuração que os clientes do Rekognition podem ajustar com base em quão precisos eles querem que a correspondência seja. Se, por exemplo, um usuário do Rekognition quisesse reconhecer um campo de 1.000 imagens para 100, ela poderia usar um limite de confiança menor. A Amazon recomenda um limite de precisão de 99% para casos de uso em que os direitos civis possam entrar em ação, como a aplicação da lei. A Amazon diz que a ACLU deliberadamente usou um limiar baixo para alcançar sua agenda política.
Mas Shankar Naryan, Diretor de Projetos de Tecnologia e Liberdade da ACLU de Washington diz que a organização questionaria com reconhecimento facial, mesmo que fosse impecável. "Mesmo sistemas de vigilância facial perfeitamente precisos são perigosos, sobrecarregando a capacidade do governo de rastrear e controlar pessoas sem transparência ou responsabilidade", disse ele à GeekWire.
Naryan expôs o seguinte cenário de como o reconhecimento facial pode ser perigoso nas mãos da polícia:
“Imagine, por exemplo, uma câmera policial equipada com o tipo de medo e raiva a detecção agora está incluída no produto da Amazon, com base na qual um oficial pode ter que tomar uma decisão em fração de segundo sobre usar ou não força letal. Dados os muitos estudos que mostram que os produtos de vigilância facial são tendenciosos tanto para identificar pessoas quanto para medir suas emoções, tal aplicação seria perigosa e reforçaria os vieses existentes no policiamento. ”
A ACLU não é o único grupo que soa o alarme sobre as novas habilidades de detecção de medo do Rekognition. Evan Greer, do grupo de defesa dos direitos digitais Fight for the Future, acusou a Amazon de construir “o estado distópico de vigilância de nossos pesadelos”.
“O reconhecimento facial já automatiza e agrava o abuso, a discriminação e a discriminação da polícia”, disse ela em um comunicado. “Agora, a Amazon está nos colocando em um caminho em que agentes governamentais armados poderiam fazer julgamentos em frações de segundos com base no testemunho frio de um algoritmo defeituoso. Pessoas inocentes poderiam ser detidas, deportadas ou falsamente presas porque um computador decidiu que pareciam ter medo quando questionadas pelas autoridades. ”
As preocupações em torno do reconhecimento facial já obrigaram alguns governos a intervir. San Francisco, Somerville, Massachusetts e Oakland, Califórnia, aprovaram leis proibindo alguns usos da tecnologia de reconhecimento facial. Um projeto de lei no estado natal da Amazon, Washington, teria implementado novas grades de proteção para a tecnologia de reconhecimento facial, mas ela morreu no estado. legislatura última sessão. Embora o projeto tivesse o apoio da Microsoft e da Amazon, a ACLU lutou contra ela, alegando que os regulamentos eram muito escassos e permissivos. A Amazon diz que quer que as regulamentações federais governem a tecnologia nascente, mas os ativistas dizem que são Preocupado que uma lei federal seria muito fraca para proteger as liberdades civis.
Via: Geek Wire
Nenhum comentário