Policiamento AI: É uma tarefa para o governo, indústria, consumidores ou todos os itens acima?
Talvez ainda não esteja claro como as sociedades se protegerão da potencial desvantagem da inteligência artificial - incluindo preconceitos algorítmicos, invasões de privacidade e perfis injustificados -, mas já está claro que são necessárias salvaguardas.
Essa é a linha de fundo da discussão de quarta-feira sobre viés de IA, apresentada em Seattle pela EqualAI e LivePerson.
Ambos os apresentadores do painel têm interesse em descobrir como lidar com IAs. Desvantagens: a LivePerson está interessada em como os chatbots e outras ferramentas habilitadas por IAs podem suavizar as interações entre empresas e clientes, enquanto a EqualAI é uma iniciativa apoiada por Arianna Huffington, Jimmy Wales, da Wikipedia, e Robert Locascio, CEO da LivePerson.
"As empresas estão criando AI para mudar o mundo", disse a diretora executiva da EqualAI, Miriam Vogel, que se concentrou em questões de igualdade salarial e preconceito de treinamento para a aplicação da lei durante seu período. tempo na Casa Branca de Obama e no Departamento de Justiça.
“Eles estão tentando fazer o bem, eles estão tentando alcançar pessoas que não foram alcançadas, iniciar conversas que não aconteceram de outra forma - saber que [viés implícito] não é necessariamente proveniente de um ato malicioso. Está vindo de ações humanas ”, disse ela. “Então, é sobre começar a conversa a partir de um lugar de compreensão e respeito pela missão.”
Há muitos exemplos para mostrar onde a IA pode dar errado:
- Os primeiros chatbots da Microsoft, apelidados de Tay, foram rapidamente treinados por trolls da Internet para vomitar vitrívoros cheios de ódio.
- Pesquisadores pediram que a Amazon pare de vender seu software de reconhecimento facial a agências de segurança, por preocupação de que a tecnologia não era confiável o suficiente - particularmente quando se tratava de mulheres e pessoas de cor.
- As autoridades chinesas estão usando software de reconhecimento facial para vigilância do grupo majoritariamente muçulmano Uighur no oeste da China.
- A ProPublica encontrou um viés racial no software de IA projetado para avaliar a probabilidade de que criminosos condenados cometessem mais crimes após o seu lançamento.
Consciente dos possíveis abusos, a Microsoft criou um grupo interno nível chamado de Comitê Aether (onde "Aether" representa ou AI e Ética em Engenharia e Pesquisa) para decidir como seu software de IA deve ou não ser usado.
Nesta semana, o Presidente da Microsoft, Brad Smith, forneceu mais detalhes sobre a funcionamento do Comitê Aether. Ele disse que a Microsoft recusou a solicitação de uma agência da lei da Califórnia para usar o software de reconhecimento facial para checar as pessoas paradas no trânsito, bem como um pedido de um país estrangeiro para usar o software com câmeras de vigilância em sua capital. p>
Navrina Singh, diretora de projetos da Microsoft AI, disse que o sistema de revisão Aether é "apenas um ótimo exemplo do que as empresas podem fazer". Vogel concordou que as empresas de IA podem fazer por si mesmas um favor por policiar-se.
"Na verdade, há provas suficientes de que se trata de um caso de negócio se você não está pensando em preconceitos implícitos", disse ela. “Se você estiver engolindo sua IA, inconscientemente, esse viés implícito, você pode estar alienando possíveis clientes - e você pode estar excluindo potenciais consumidores de comprar e usar seus produtos.”
Mas ela também está ouvindo executivos de tecnologia dizerem que os governos precisarão regulamentar a IA.
“Acho isso interessante, porque não é um ponto de discussão que eu ouvi empresas de tecnologia dizerem em outro ponto. na história ”, disse Vogel. “Acho que há muito mérito nessa afirmação, mas também acho que é um pouco fácil de dizer agora - conhecendo o outro tema recorrente que estou ouvindo, que é que a DC não consegue ter essa conversa.”
A privacidade de dados é outro bugaboo para a IA, e o professor de direito da Universidade de Washington, Ryan Calo, disse que o debate sobre privacidade está provocando múltiplas demandas por regulamentação mais rígida.
"Eu me preocupo um pouco com a 'p-word', que é 'preempção'", disse Calo. “Se muitos estados, como a Califórnia, aprovam muitas leis que são onerosas para a indústria; às vezes o que você vê é, você vê esta onda de apoio à legislação federal. Mas um dos objetivos dessa legislação é antecipar todas as coisas que os estados inovadores estão fazendo. ”Spinelli disse que os consumidores e os eleitores devem se atualizar sobre o que está em jogo no debate sobre o assunto. privacidade, AI e outras questões na fronteira de dados. "Eu diria, 'informe-se' seria a primeira coisa", disse ele.
Via: Geek Wire
Nenhum comentário