A IA é mais ameaça do que promessa?Desenvolvedores de tecnologia juntam-se a ativistas pedindo novas salvaguardas
É muito pior deixar Darth Vader livre do que manter Luke Skywalker encarcerado. Esse é o argumento filosófico subjacente ao COMPAS (perfil de gerenciamento de infratores correcionais para sanções alternativas), um algoritmo preditivo de reincidência de crime empregado por sistemas de justiça criminal em todo o país, e diz respeito a Shankar Narayan, o ACLU do diretor de projeto de Tecnologia e Liberdade de Washington.
Narayan usou a referência de Guerra nas Estrelas na sexta-feira na Conferência Interativa de Seattle. Ele disse que a citação, de um designer da Equivant, criadora do COMPAS, ilustra os perigos de permitir que a inteligência artificial erre ao lado de prender alguém.
Ele descreveu o COMPAS como tendo um "equilíbrio avesso ao risco" entre“Falsos positivos e negativos” que podem ter conseqüências danosas no mundo real para comunidades marginalizadas.
"Dada a super-representação da comunidade negra como tendo sido envolvida na justiça criminal",ele disse que essas ferramentas “resultarão em mais pessoas consideradas de 'alto risco'”.
Tais preocupações com a inteligência artificial estavam em exibição total em um painel intitulado "A promessa e ameaça da IA,”Onde até os desenvolvedores de tecnologia entusiasmados com o potencial da IA adotam cada vez mais salvaguardas.
Por exemplo, a HTC oferece tecnologia de rastreamento corporal para sua plataforma de realidade virtual Vive, mas optou por criar um sistema fechado no qual os dados do usuário sejamnão é compartilhado publicamente. Essa decisão equilibrou a inovação comercial com a privacidade do consumidor, disse Vinay Narayan, vice-presidente de estratégia de plataforma e relações com desenvolvedores da empresa.A HTC, fabricante de eletrônicos de consumo de Taiwan conhecida por seus smartphones e tecnologia VR, tem sua sede na América do Norte em Seattle.
“Do ponto de vista da tecnologia, ninguém quer fazer isso porque você não pode iterar rapidamente se eunão estou levando todos os seus dados de volta para um servidor central ”, disse ele.“Percebemos que construímos uma ferramenta realmente poderosa e, apesar de aplicarmos muitas salvaguardas tecnológicas, não sabemos como as outras pessoas as usarão.”
Enquanto a HTC estáciente do potencial uso indevido de seus próprios produtos, a crescente difusão da IA em aplicativos de software mais comuns significa que outras empresas não são tão vigilantes.
“A maioria das empresas que utiliza essas ferramentas no final dodia eles não são empresas de IA.São empresas de atendimento ao cliente que desejam melhorar seu tempo de resposta ”, disse Shankar (sem relação com o colega de painel Vinay Narayan).“Você pode nem saber que está usando IA.”
Uma resposta comum a IA com desempenho fraco ou tendencioso é melhorar os conjuntos de dados, que Shankar Narayan descarta amplamente.
“Tecnólogos eOs cientistas de dados são infinitamente otimistas em relação à tecnologia, mas, partindo da perspectiva de que eu venho, tendo visto o funcionamento do poder e o quão distorcidos os dados estão no sistema de justiça criminal, parece haver uma quase impossibilidade de obter conjuntos de dados limpos paraconserte sua ferramenta ”, disse ele.
De fato, Shankar Narayan disse que o impulso de corrigir a IA com mais dados é que ele cria incentivos para ainda mais coleta de dados."Colete, colete, colete, colete - mesmo que esteja muito além do objetivo declarado dessa tecnologia", disse o funcionário da ACLU, descrevendo a abordagem comum.
Esse impulso o faz parar no meio do esforço por tanto tempo. chamadas cidades inteligentes, que dependem fortemente da tecnologia de vigilância para otimizar sistemas urbanos como fluxos de tráfego e uso de energia. Ele prefere uma abordagem mais equilibrada, como o ex-cientista de dados da cidade de Boston, Ben Green, descreve em seu novo livro "A cidade suficiente inteligente".
“Há uma história muito longa de praticamente todas as tecnologias de vigilância que afetam desproporcionalmentecomunidades marginalizadas e vulneráveis ”, disse Shankar Narayan, que trabalha nas forças-tarefa de drones e câmeras corporais do estado de Washington.“É por isso que sou surpreendido com a atitude de 'vamos jogar lá fora e ver o que acontece'. Essas posições de princípios também se deparam com os problemas do mundo real que a tecnologia assistida por IA está tentando resolver. Por exemplo, a legislação que permitiria a Seattle usar a aplicação de câmeras para veículos que bloqueiam faixas de pedestres e viajam ilegalmente em faixas exclusivas de trânsito morreu no comitê durante a sessão legislativa deste ano.
Para Vinay Narayan, da HTC, essa decisão política reverte para um status quo ineficiente, onde um número limitado de policiais luta para fazer cumprir as leis de trânsito.
“Estamos usando seres humanos para interfaces manuais por muito tempo. fluxo de tráfego em larga escala ”, afirmou."É aqui que a visão computacional e a IA podem realmente ajudar a resolver problemas."
Mas para Shankar Narayan, que observou a polícia e os promotores solicitarem dados das câmeras de luz vermelha de Washington para outros crimes, a eficácia da tecnologia ésuperado por preocupações mais amplas."Não somos contra o conceito de câmeras, mas as salvaguardas não estavam lá", disse ele, descrevendo "o problema da fuga da missão: uma vez que a câmera está lá, você deseja usá-la para mais coisas."
Via: Geek Wire
Nenhum comentário