Como a Microsoft está abrindo a 'caixa preta' da AI para maior transparência
A inteligência artificial pode fazer maravilhas, mas geralmente funciona de maneiras misteriosas.
O aprendizado de máquina é baseado no princípio de que um programa de software pode analisar um enorme conjunto de dados. e aperfeiçoar seus algoritmos para detectar padrões e encontrar soluções que os humanos possam perder. Foi assim que o agente Alpha Go AI do Google DeepMind aprendeu a jogar o antigo jogo do Go (e outros jogos) bem o suficiente para derrotar jogadores experientes.
Mas se programadores e usuários não conseguem descobrir como os algoritmos de IA surgiram com seus resultados, esse comportamento de caixa preta pode ser um motivo de preocupação. Pode tornar-se impossível julgar se os agentes da IA pegaram preconceitos injustificados ou perfis raciais de seus conjuntos de dados.
É por isso que termos como transparência, explicabilidade e interpretabilidade estão papel no debate sobre ética em IA.
A Comissão Européia inclui transparência e rastreabilidade entre seus requisitos para sistemas de IA, em linha com o “direito à explicação” estabelecido nas leis de proteção de dados. O governo francês já se comprometeu a publicar o código que alimenta os algoritmos que usa. Nos Estados Unidos, o Escritório de Pesquisa e Investigação Tecnológica da Comissão Federal de Comércio foi encarregado de fornecer orientações sobre transparência algorítmica.
Figuras de transparência também nas “10 Leis da IA” do CEO da Microsoft Satya Nadella - e Erez Barak, diretor sênior de produtos da Divisão de IA da Microsoft, abordou a questão de frente hoje na Conferência Global de Inteligência Artificial, em Seattle. "Acreditamos que a transparência é uma chave", disse ele. “Quantas características consideramos? Consideramos apenas esses cinco? Ou nós consideramos 5.000 e escolhemos estes cinco? ”
Barak observou que um kit de desenvolvedor de software para explicabilidade e A interpretabilidade é incorporada diretamente no serviço de aprendizado de máquina do Azure da Microsoft. "O que ele faz é usar o modelo como uma entrada e começar a quebrá-lo", disse ele. A explicação do modelo pode mostrar quais fatores entraram no modelo do computador e como eles foram ponderados pelo modelo. Algoritmos do sistema AI. Como resultado, os clientes podem entender melhor por que, por exemplo, foram recusados por uma hipoteca, repassados para uma abertura de emprego ou negado condicional.
Os desenvolvedores de AI também podem usar as explicações do modelo para Algoritmos mais “humanos”. Por exemplo, pode ser preferível usar um algoritmo que não se encaixe em um conjunto de dados de treinamento tão bem, mas é mais provável que promova a justiça e evite preconceitos raciais ou de gênero.
À medida que as aplicações de inteligência artificial se tornam mais difundidas, os pedidos de transparência - talvez impostos por regulamentação governamental - podem se tornar mais fortes. E isso corre o risco de expor segredos comerciais escondidos dentro dos algoritmos intrinsecamente formulados de uma empresa, disse Elvira Castillo, sócia do escritório de advocacia Perkins Coie, de Seattle, especializado em regulamentações comerciais.
Algoritmos tendem a ser coisas que são muito bem guardadas. … Isso não é algo que você necessariamente quer ser transparente com o público ou com seus concorrentes, então há essa tensão fundamental ”, disse Castillo. "Isso está mais em causa na Europa do que nos EUA, que tem muito, muito, muito mais força e agressividade."
A Microsoft já assumiu uma posição forte em IA responsável - ao ponto de a empresa ter recusou clientes em potencial que procuravam usar aplicativos de IA, como reconhecimento facial de maneiras eticamente problemáticas.
Após sua palestra, Barak disse ao GeekWire que o recurso de explicabilidade do Azure Machine Learning poderia ser usado como uma ferramenta de código aberto dentro da caixa preta e verifique se um algoritmo de IA não perpetua injustiças demasiadamente humanas.
Com o tempo, a indústria de software ou outras partes interessadas desenvolverão um conjunto de padrões ou um “selo de aprovação”? para algoritmos de IA?
“Já vimos isso em coisas como segurança. Esses são os tipos de limites que foram definidos. Tenho certeza de que estamos indo nessa direção também ", disse Barak. “A ideia é dar a todos a visibilidade e a capacidade de fazer isso, e esses padrões vão se desenvolver, absolutamente.”
Via: Geek Wire
Nenhum comentário