Pesquisadores da AI dizem que a proibição do reconhecimento facial de São Francisco apenas arranha a superfície
O conselho de supervisores de São Francisco deu um passo significativo nesta semana quando votou pela proibição do uso de software de reconhecimento facial para fins de aplicação da lei, mas essas medidas por si só não resolverão as questões éticas vigilância envolvente possibilitada pela inteligência artificial.
Pelo menos essas são as primeiras impressões de um trio de especialistas enfocando as implicações sociais da rápida ascensão da IA.
David Danks, professor de filosofia na A Carnegie Mellon University, disse que não teve a chance de se aprofundar nos detalhes da legislação municipal, que foi endossada na terça-feira e vai aparecer para uma segunda votação processual na próxima semana. E ele disse: "este é um caso em que os detalhes vão importar".
"'fins de aplicação da lei' no sentido de prender alguém com base em um reconhecimento facial a combinação é esse tipo de caso extremo e óbvio ”, disse Danks ao GeekWire após participar de um painel de discussão sobre ética da IA na Universidade de Seattle, na noite de terça-feira. “Mas e se estiver monitorando membros de um grupo, onde não é que eu sei que este é esse indivíduo, mas eu sei que este é um membro de uma comunidade onde eu carreguei 20 caras?”
O reconhecimento facial atraiu muitas críticas de pesquisadores e defensores da privacidade - em parte porque as autoridades têm usado a tecnologia para rastrear milhões de muçulmanos no noroeste da China, em parte porque os relatórios de software relacionados a raça e gênero fracassam e só porque o rosto é uma parte tão grande da identidade pública de uma pessoa.
“Há na verdade um monte de outras coisas que têm propriedades semelhantes ao reconhecimento facial que são igualmente perniciosas, mas não geram o mesmo Margaret Mitchell, cientista sênior do Google Research and Machine Intelligence, disse que os exemplos podem incluir a análise da marcha de uma pessoa ou a verificação da cadência de discurso de erson.
"O aprendizado de máquina vai descobrir um monte de novas maneiras", disse Barocas.
As empresas líderes em IA e aprendizado de máquina dizem que estão tentando autorregular os produtos de IA que lançam. "O Google vem trabalhando para ser mais transparente sobre coisas como os valores", disse Mitchell. “Uma das minhas favoritas, porque se aplica diretamente a tudo que faço, é evitar o reforço de preconceitos injustos.”
A Microsoft tem um comitê interno de ética que analisa os aplicativos propostos para o seu software AI - e ocasionalmente recusa o que vê como casos de uso antiéticos. O reconhecimento facial é uma preocupação de alto nível.
Mas a auto-regulação é suficiente? Em dezembro passado, o Presidente da Microsoft Brad Smith disse que o governo federal deveria promulgar leis que regem a tecnologia de reconhecimento facial, com foco em questões como consentimento, testes de terceiros, justiça e privacidade.
O governo deveria criar uma Comissão Federal de Inteligência Artificial?
"Não sei bem como isso seria", disse Danks. “Parece-me uma espécie de ter uma 'Comissão Federal Federal de Motores de Combustão'. O que importa é como essas tecnologias são usadas, não a tecnologia isolada.”
Na opinião de Danks, regulando a IA pode não exigir a criação de toda uma nova burocracia. "Em muitos domínios, na verdade, já existem os poderes regulatórios para fazer isso", disse ele. “O que falta é o conhecimento técnico das agências reguladoras para entender como exercitar esses poderes para regulamentar alguma nova tecnologia ou alguma empresa. Haverá coisas que passarão pelas lacunas, então a questão é, como acontece com qualquer novo avanço tecnológico, como preencher essas lacunas? ”Um grande exemplo poderia ser dados médicos pessoais. As ferramentas de inteligência artificial poderiam ultrapassar as proteções federais de privacidade fornecidas pelo Ato de Responsabilidade e Portabilidade de Seguro Saúde, ou HIPAA, disse Danks. “Os atributos inferidos não são cobertos pelo HIPAA, por exemplo”, disse ele. “Temos uma ótima proteção em certos aspectos em nossos dados médicos. Mas se eu usar a IA para descobrir isso em vez de um teste aprovado pela FDA, não serão mais considerados dados privados. É um "palpite" entre aspas. Essa é uma das lacunas que precisamos preencher. ”
Atualização para as 12h30. PT 15 de maio: Este ano, a Assembléia Legislativa de Washington considerou uma lei de privacidade de dados que colocaria limites ao uso da tecnologia de reconhecimento facial. Veja como a conta foi descrita em uma história que publicamos em janeiro:
“O projeto de lei estabelece novos regulamentos para a tecnologia de reconhecimento facial, exigindo que as empresas que fazem o software obtenham o consentimento dos consumidores antes de usá-lo nelas. Os consumidores precisariam ser notificados ao entrar em sites e espaços físicos onde o reconhecimento facial está em uso. As empresas que permitem que os desenvolvedores usem sua tecnologia de reconhecimento facial precisariam tornar públicas suas APIs para que terceiros pudessem testar a precisão e o preconceito.
“O projeto também estende os regulamentos de reconhecimento facial ao setor público. As agências governamentais seriam proibidas de usar a tecnologia na vigilância contínua de indivíduos em espaços públicos sem uma ordem judicial ou emergência 'envolvendo perigo iminente ou risco de morte ou lesão física grave a uma pessoa', de acordo com o projeto de lei. ” [/ _BQ]
O projeto de lei não se tornou lei, no entanto. A American Civil Liberties Union e outros críticos disseram que a legislação continha muitas brechas - e se opuseram ao papel que a Microsoft e outras empresas de tecnologia tiveram na elaboração do projeto. As diferenças não poderiam ser resolvidas a tempo de cumprir o prazo para a sessão legislativa deste ano, mas o senador estadual Reuven Carlyle, o democrata de Seattle que patrocinou a lei, diz que os partidários tentarão novamente no ano que vem.
Albers A Ethics Week, apresentada pela Escola de Negócios e Economia Albers da Universidade de Seattle, continua com dois eventos públicos gratuitos:
- A ética pode ser ensinada à AI Tae Wan Kim, professora de ética nos negócios da Carnegie Mellon University? , aborda o assunto às 12:30 hoje no Pigott 103 no campus da Universidade de Seattle.
- IA Responsável e a Internet das Coisas: Avijit Sinha, diretor sênior de IoT e Intelligent Edge da Microsoft, fala às 17h30. Quinta-feira no Auditório Pigott.
Via: Geek Wire
Nenhum comentário