Amazon, Microsoft e outros titãs enfrentam escrutínio no relatório sobre tecnologia assassino-robô
Ativistas holandeses expressam preocupações sobre tecnologias que podem abrir o caminho para armas autônomas letais - como software de IA, reconhecimento facial e sistemas aéreos de enxame - e estão imaginando onde vários titãs da tecnologia, incluindo Amazon eMicrosoft stand.
O mesmo acontece com alguns pesquisadores de IA nos Estados Unidos.
Um relatório publicado pela Pax, um grupo holandês que faz parte de umUma iniciativa internacional conhecida como Campanha para Parar os Robôs Assassinos, chama a Amazon, a Microsoft e outras empresas por não responderem às investigações do grupo sobre suas atividades e políticas no contexto de armas autônomas letais.
"Por que empresas como a Microsoft e a Amazon não negam que estão atualmente desenvolvendo essas armas altamente controversas, que podem decidir matar pessoas sem envolvimento humano direto?", disse o principal autor do relatório, Frank Slijper, em uma reportagem.lançamento.“Muitos especialistas alertam que violariam princípios legais e éticos fundamentais e seriam uma ameaça desestabilizadora à paz e à segurança internacionais.”
O relatório de Pax levanta preocupações sobre propostas feitas pela Amazon e pela Microsoft para uma nuvem do Pentágono de US $ 10 bilhões-computing project conhecido como Joint Enterprise Defense Infrastructure, ou JEDI, e sobre o software de reconhecimento facial desenvolvido por ambas as empresas.O relatório diz que outras tecnologias potencialmente relevantes para os sistemas de armas robóticas incluem os drones da Amazon, bem como o sistema de realidade aumentada HoloLens, da Microsoft, que está sendo usado atualmente para treinamento militar. “Além da Amazon e Microsoft… AerialX (Canadá), Anduril, Clarifai e Palantir (todos os EUA) emergem neste relatório trabalhando em tecnologias relevantes para armas cada vez mais autônomas e não responderam a inúmeros pedidos para definir claramente sua posição, ”disse Pax.
A Pax deu a 21 empresas em todo o mundo uma classificação de “alta preocupação”. Por outro lado, a Pax escolheu quatro empresas para a sua posição pública contra o uso de suas tecnologias.para desenvolver ou produzir armas autônomas letais:
- O Google publicou seus Princípios da IA em 2018, que afirmam que o Google não projetará nem implantará IA em “armas ou outras tecnologias cujo propósito ou implementação principal seja causarou diretamente facilitar o prejuízo ao people. ”
- O Vision Labs disse à Pax que“ não desenvolve ou vende sistemas de armas letais autônomos ”e acrescentou que os contratos da empresa“ proíbem explicitamente o uso da tecnologia VisionLabs para aplicações militares ”.
- O SoftBank, dono da Boston Dynamics, disse que não desenvolverá armas autônomas letais e que "não tem intenção de desenvolver tecnologias que possam ser usadas para fins militares".
- Animal Dynamics forneceu uma declaração do CEOAlex Caccia dizendo que “sob a nossa carta da empresa, e nosso relacionamento com a Universidade de Oxford, não armamos nem fornecemos funcionalidade 'cinética' aos produtos que produzimos”.
Entramos em contatopara a Amazon e Microsoft para comentar, e irá atualizar esta história com qualquer coisa que possamos transmitir.Nesse meio tempo, vale a pena notar que a Microsoft criou um conselho consultivo conhecido como Aether para abordar questões éticas levantadas por aplicativos de inteligência artificial. Em abril, o presidente da Microsoft, Brad Smith, disse que a empresa se recusou a vender software de reconhecimento facial.A Microsoft também descartou o uso da tecnologia em câmeras colocadas em espaços públicos em uma cidade estrangeira sem nome.
A Amazon, por sua vez, está respondendo às preocupações sobre o uso da aplicação da lei da sua tecnologia de reconhecimento facial baseada em nuvem, conhecida como Rekognition.Em junho, o CEO da Amazon Web Services, Andy Jassy, disse que está aberto à regulamentação federal da tecnologia. Max Tegmark, um físico do MIT que também é co-fundador e presidente daFuture of LIfe Institute, favorece ter um tratado internacional que estigmatize armas autônomas letais, como parte de uma abordagem que ele chama de “IA benéfica”. Durante anos, diplomatas conduziram reuniões para discutir a elaboração de tal tratado - incluindo uma sessão realizada esta semana emGenebra - mas a ideia não foi muito longe até o momento. Em um e-mail para GeekWire, Tegmark disse que o relatório de Pax levanta preocupações válidas: BQ: Meus US $ 0,02 como um pesquisador de IA: O conhecimento mais crítico necessário para construir essas armas não está nos laboratórios do governo., mas em grandes empresas de tecnologia.As empresas de tecnologia precisam de uma política clara que explique onde traçar a linha entre o uso aceitável e inaceitável da IA, porque seus funcionários, investidores e clientes exigem saber. ”
Em um email de acompanhamentoOren Etzioni, CEO do Instituto Allen de Inteligência Artificial de Seattle, secundou essa visão - e levantou a aposta com uma pergunta provocativa:
“Eu concordo que as empresas de tecnologia precisam de uma política clara explicando onde desenhara linha entre o uso aceitável e inaceitável de AI.Devemos também distinguir entre pesquisa básica e trabalho de projeto classificado para o DoD [Departamento de Defesa].Por fim, gostaria de perguntar: se nossas empresas de tecnologia se recusarem a trabalhar com o DoD, mas as empresas de tecnologia na China, Rússia e outros países tomarem a decisão oposta - para onde isso nos levará ao longo do tempo? ”
Via: Geek Wire
Nenhum comentário