Header Ads

A Microsoft adicionará a ética da IA ​​à sua lista de verificação padrão para o lançamento do produto

A Microsoft irá “um dia muito em breve” adicionar uma revisão ética focada em questões de inteligência artificial à sua lista de verificação padrão de auditorias que precedem o lançamento de novos produtos, de acordo com Harry Shum. executivo lidera os esforços de IA da empresa.

A ética AI irá unir privacidade, segurança e acessibilidade na lista, Shum disse hoje na conferência EmTech Digital da MIT Technology Review em San Francisco.

Shum, que é vice-presidente executivo do grupo de pesquisa e inteligência artificial da Microsoft, disse que as empresas envolvidas no desenvolvimento da IA ​​"precisam criar responsabilidade no próprio tecido da tecnologia".

Entre as preocupações éticas são o potencial para os agentes de AI captarem preconceitos humanos demais dos dados sobre os quais são treinados, para reunir percepções invasivas de privacidade por meio de análise profunda de dados, para darem errado devido a lacunas em suas capacidades perceptivas, ou simplesmente receber muito poder de manipuladores humanos.

Shum observou que, à medida que a IA se torna melhor em analisar emoções, conversas e escritos, a tecnologia pode abrir caminho para mais propaganda e desinformação, bem como intrusões mais profundas na privacidade pessoal.

Além das auditorias de pré-lançamento, A Microsoft está abordando as preocupações éticas da IA, aprimorando suas ferramentas de reconhecimento facial e adicionando versões alteradas de fotos em seus bancos de dados de treinamento para mostrar às pessoas uma maior variedade de cores de pele, outras características físicas e condições de iluminação.

Shum e outros Os executivos da Microsoft discutiram a ética da IA ​​várias vezes antes de hoje:

  • Em 2016, a CEO da Microsoft, Satya Nadella, apresentou uma lista de princípios e metas propostos para pesquisa e desenvolvimento de IA, incluindo a necessidade de proteger contra preconceitos algorítmicos e garantir que os seres humanos sejam responsáveis ​​por ações geradas por computador.
  • Em um livro intitulado "O futuro computado", Shum e o presidente da Microsoft Brad Smith pediram o desenvolvimento de de para AI, apoiado por diretrizes da indústria, bem como supervisão do governo. Eles escreveram que “um Juramento Hipocrático para codificadores… poderia fazer sentido”.
  • Shum e Smith estão entre os líderes de um grupo interno da Microsoft chamado IA e Ética em Engenharia e Pesquisa, ou Aether. No ano passado, Eric Horvitz, da Microsoft Research, disse que "vendas significativas foram cortadas" devido às recomendações do grupo Aether. Em alguns casos, ele disse que limitações específicas foram escritas em acordos de uso de produtos - por exemplo, a proibição de aplicativos de reconhecimento facial.
  • Shum disse ao GeekWire há quase um ano que esperava que o grupo Aether se desenvolvesse. AI shipping criteria - exatamente o tipo de lista de pré-lançamento que ele mencionou hoje.

A Microsoft tem investigado as questões sociais levantadas pela AI com outras tecnologias líderes do setor, como Apple, Amazon, Google e Facebook, por meio de um grupo sem fins lucrativos chamado Partnership on AI. Mas durante sua palestra na EmTech Digital, Shum reconheceu que os governos também terão que desempenhar um papel. A organização sem fins lucrativos AI Now Foundation, por exemplo, pediu uma maior supervisão das tecnologias da IA ​​em um setor por com base em aplicações como reconhecimento facial e reconhecimento de afeto. Alguns pesquisadores pediram a criação de uma “equipe SWAT” de especialistas em IA do governo que possam ajudar outras agências de vigilância sobre questões técnicas - talvez modeladas depois do National Transportation Safety Board.

Outros argumentam que classes inteiras de aplicativos de IA devem ser proibidas. Em uma carta aberta circulada pelo Instituto Future of Life e publicada pelo The BMJ, uma revista médica britânica, especialistas pediram à comunidade médica e à comunidade de tecnologia que apóie os esforços para proibir armas letais totalmente autônomas. A questão é o tema de uma reunião da ONU em Genebra nesta semana.

Via: Geek Wire

Nenhum comentário