IA em ascensão: como as empresas, a polícia e o público já estão lidando com inteligência artificial
Inteligência artificial pode parecer um conceito futurista, e pode ser verdade que estamos a anos ou décadas de distância de uma forma generalizada de IA que pode corresponder ou exceder as capacidades do cérebro humanoem uma ampla gama de tópicos.
Mas as implicações do aprendizado de máquina, do reconhecimento facial e de outras formas iniciais da tecnologia já estão ocorrendo para empresas, agências governamentais epessoas ao redor do mundo. Isso levanta questões sobre tudo, desde privacidade, empregos, aplicação da lei e o futuro da humanidade.
Neste episódio do Podcast GeekWire, ouvimosvárias versões diferentes de pessoas que estão lidando agora com a IA e suas implicações para os negócios, tecnologia e sociedade, gravadas em diferentes sessões no recente GeekWire Summit em Seattle.
Ouça o episódio acima ou assine o seu favoritoaplicativo de podcast e continue lendo trechos editados.
Primeiro, o presidente da Microsoft, Brad Smith, co-autor do livro Ferramentas e armas, colocando a IA em perspectiva.
Smith: Iacho que é justo dizer que a inteligência artificial remodelará a economia global nas próximas três décadas, provavelmente mais do que qualquer outra força tecnológica única, provavelmente tanto quanto o motor de combustão reformulou a economia global na primeira metade do século XX.>
Um de nossos capítulos é sobre IA na força de trabalho e na verdade trabalhamosFalando sobre o papel dos cavalos, a última corrida contra incêndios no Brooklyn em 1922. E traçamos como a transição do cavalo para o automóvel mudou todos os aspectos da economia. Penso que o mesmo se aplica à IA, por isso devemos acertar.
Mas se isso não for suficiente para chamar sua atenção, acho que há algo mais que nósfale um pouco sobre o livro. Em toda a história da humanidade, nós, todos nós, que estamos vivos neste momento, somos a primeira geração na história a dotar as máquinas com a capacidade de tomar decisões que somente foram tomadas por pessoas. Então é melhor acertarmos isso.
Somos a primeira geração que decidirá como as máquinas tomarão essas decisões, que tipo de princípios éticos guiarão sua tomada de decisão. Sem pressão, mas é melhor acertarmos.
E também é interessante colocar isso no contexto em que todas as gerações de americanos, e a maioria das pessoas ao redor do mundo, realmente cresceram assistindo a vários filmes no cinema. cinema que tinha o mesmo enredo básico. Os humanos criam máquinas que podem pensar por si mesmas.Máquinas pensam por si mesmas.Máquinas decidem escravizar ou matar todos os humanos.É o filme Terminator 1 a N, incluindo o que está prestes a sair, e muitos outros filmes também.
E uma das coisas que aprendemos éque isso ressoa com o público. Quando eles olham para o setor de tecnologia e nos veem criando máquinas que podem tomar decisões, chegam a ele com um ponto de vista e é menos do que puro entusiasmo.
Todd Bishop: Então, o que faz“Acertar” parece?
Brad Smith: Eu acho que primeiro nos chama a desenvolver um conjunto de princípios éticos.Nós temos como empresa. Descrevemos o processo pelo qual passamos para criar esses princípios.E, curiosamente, esses diretores e outros muito semelhantes a eles se espalharam pelo mundo.
Isso significa que as empresas de tecnologia e, finalmente, todas as empresas, todas as instituições que implantam IA, precisam descobrir como operacionalizaros princípios, e esse é um grande desafio. Conversamos um pouco sobre isso. Isso significa que, como sociedades, precisamos operacionalizar os princípios. Como fazemos isso?Bem, isso se chama lei. Isso é chamado de regulamentação. Portanto, haverá todos esses elementos também. Então, sim, quando você junta tudo, é realmente um desafio formidável.
Se isso parece complicado, acho que há uma lição realmente interessante para todos nós em 2019, e talvez deva falar comespecialmente em Seattle, o princípio ético mais fundamental, como o descrevemos, é o que chamamos de responsabilidade. Você precisa garantir que as máquinas permaneçam responsáveis perante as pessoas.
Bem, no final do dia, o que isso significa?Isso significa que você precisa desligar a máquina se estiver fazendo algo que não está funcionando corretamente ou não está seguindo a abordagem ética que você imaginou.
Qual é o maior problema relacionado a software que afeta a economia em Puget Sound em 2019?Software na cabine de um avião. Software que os pilotos não podiam desligar. Isso deve falar conosco. Isso não é apenas algo que deve falar com uma empresa ou apenas um setor. Eu acho que deveria falar com todos que criam tecnologia, que usam tecnologia em todas as partes da sociedade, e essa é uma lição que devemos lembrar. Temos que ser capazes de criar uma ótima tecnologia e realmente queremos desativá-la quando não queremos.
Quando você está no setor de tecnologia, umUm dos pontos que destacamos é que, no ano de 2010, realmente atingimos um ponto de inflexão tecnológica porque, muito mais do que no passado, não apenas indivíduos, mas também empresas começaram a armazenar seus dados na nuvem, em um data center. Tornou-nos os administradores dos dados de outras pessoas, não os proprietários desses dados, os administradores dos mesmos. Penso que a nossa primeira responsabilidade é proteger os dados deles, proteger as pessoas, proteger os direitos das pessoas que podem estar implicados com base no que acontece com os dados.
TB: Você citou, no campode inteligência artificial, reconhecimento facial como uma das primeiras áreas em que podemos realmente descobrir, pelo menos, dar os primeiros passos. Jeff Bezos, CEO da Amazon, disse há duas semanas, em uma discussão com repórteres do Spheres, que eles estão trabalhando nisso.A equipe de políticas públicas da Amazon está trabalhando nisso. Você está trabalhando nisso com eles?
Brad Smith: Não estamos trabalhando nisso com eles, mas se eles quiserem conversar, ficaremos emocionados. Quero dizer, sempre que temos uma chance de conversar com nossos amigos na Amazon, sempre agradecemos a oportunidade.E conversamos muito com eles ou com eles, então acho que essa oportunidade surgirá.
Há uma coisa que eu encorajaria a todos nós a pensar no reconhecimento facial. Muitos de vocês trabalham com tecnologia ou trabalham no setor de tecnologia. Nos 26 anos em que estive na Microsoft, nunca vi uma questão de política pública explodir como reconhecimento facial. Como descrevemos no livro, pensamos muito e Satya e eu conversamos bastante sobre o que diríamos sobre esse assunto apenas em julho passado, julho de 2018. Publicamos um blog. Eu escrevi e disse: "Esta é uma tecnologia que precisará ser regida por leis e regulamentos, porque tem grandes promessas, mas está potencialmente sujeita a grandes abusos".
E quando escrevemos isso pela primeira vez, a reação de tantos no setor de tecnologia, talvez especialmente no Vale do Silício, mas aqui em Seattle também foi como: “O que eles colocaram na água do outro lado deLago Washington?O que há de errado com vocês?Por que você está dizendo que isso precisa ser regulamentado?Não há problema aqui. ”E, em um ano, a cidade de São Francisco aprovou uma lei que impede a cidade de usar o reconhecimento facial. Você vê preocupações sobre isso literalmente se espalhando pelo mundo. Então isso aconteceu muito rapidamente.
Precisamos de duas coisas. Primeiro, precisamos de leis. Fiz um discurso na Brookings Institution em dezembro passado. Compartilhamos uma proposta para o que pensávamos que faria parte de uma boa lei, e acho ótimo que a Amazon e todos pensem nisso. Eu acho que todos devemos ser transparentes.
Acho que hoje no país e na maioria dos países hoje em dia as pessoas geralmente estão bem se as empresas de tecnologia querem dizer: “Ei, aqui está uma idéia.Nós temos uma ideia.É assim que esta questão deve ser abordada. ”As pessoas nos darão pelo menos uma audiência justa. Eles não querem nos ver pegando idéias e apenas entrando na proverbial sala dos fundos e entregando-os aos legisladores sem compartilhá-los com o público. Acho que todos nós nos beneficiaremos se compartilharmos nossas idéias com esse tipo de transparência.
Mas a segunda coisa também é importante, e acho que esse é o outro lugar em que essa conversa precisair.Não acho que as empresas devam ser aprovadas sobre esse assunto simplesmente dizendo: “Esperamos que haja uma lei. Teremos algumas idéias para isso e, uma vez aprovada, cumpriremos. ”
Acho que temos a responsabilidade de ser mais proativos do que isso.E é por isso que, em dezembro, dissemos: “Aqui estão seis princípios que achamos que deveriam entrar em lei.” Dissemos: “E começaremos a aplicá-los a nós mesmos. Coisas que compartilharemos e garantiremos que nossa tecnologia possa ser testada, para que as pessoas possam analisá-la, avaliá-la e decidir por si mesmas quantitativamente em comparação com outras pessoas, é parcial ou não? ”
TB: Você o comparou com o Consumer Reports for AI.
Brad Smith: Exatamente. Deve haver um Relatório do Consumidor para clientes que desejam implantar o reconhecimento facial. Dissemos, por exemplo, que não o venderíamos em cenários em que seria usado de maneira a levar a resultados tendenciosos.E explicamos como recusamos uma oportunidade de licenciamento com uma agência de aplicação da lei na Califórnia, onde achamos que seria usada dessa maneira.
Dissemos que não deveria ser usada por governos autoritáriosse envolver em vigilância em massa.E explicamos como recusamos oportunidades de licenciar nossa tecnologia quando pensamos que havia o risco de que ela fosse usada dessa maneira.E colocamos restrições em países de todo o mundo, para que não sejam usadas inadvertidamente dessa maneira.
Aplaudo a Amazon por dizer que vai gerar idéias. Isso será bem vindo. Contribuirá positivamente. Mas, na minha opinião, a Amazon não deveria apenas dizer: “Ótimo. Quando a lei for aprovada, vamos cumpri-la. ”Todos nós, nesse setor, temos a responsabilidade de pensar mais amplamente sobre nosso próprio senso do que é ético e adequado e não esperar alguém em um governo em algum lugarpara nos dizer o que fazer.
Em nosso visual do estado da IA, exploramos o mundo da privacidade, vigilância e aplicação da lei.A editora cívica do GeekWire, Monica Nickelsburg, moderou esta sessão no GeekWire Summit com a representante dos EUA Pramila Jayapal, a chefe do Departamento de Polícia de Seattle Carmen Best, e Luke Larson, presidente da Axon, fabricante de Taser e tecnologia de câmeras corporais.
Monica Nickelsburg: Estamos vivendo um momento de intensa ansiedade sobre a maneira como o governo está usando a tecnologia. Tudo, desde o provedor de e-mail ao ICE, até a polícia assistindo às imagens de vigilância do Ring.E estou curioso, por que agora?O que está impulsionando esse aumento do ceticismo e até do medo do público?
Representante dos EUA Pramila Jayapal: Bem, para mim, acho que uma das coisas é que o ritmo da tecnologia é mais rápido que o do governoregulação e compreensão dos efeitos. Então, quando uma tecnologia é desenvolvida, ela é desenvolvida para essa necessidade de que falamos. Ele preenche essa necessidade e continua se aperfeiçoando.
Mas existem todos esses outros usos auxiliares que não foram necessariamente a razão pela qual ele foi desenvolvido, mas são algumas das maneiras pelas quais otecnologia está sendo usada. Eu acho que o reconhecimento facial é um exemplo disso. Mas temos que acompanhar o lado do governo, e temos que ter um sistema que possa se adaptar a qualquer tecnologia que acabemos regulando.
Então, se você olhar para a segurança eleitoral agora, nósexistem alguns regulamentos em vigor sobre isso, mas é baseado em tecnologia desatualizada. Precisamos garantir que a tecnologia continue sendo atualizada e que nossa regulamentação acompanhe o ritmo.
Estamos em uma era de vigilância em massa e acho que essa é a preocupação que vemos em todo o país sobre como nossos dados estão sendousado, o que está acontecendo, quem tem acesso, como você o controla como a pessoa cuja tecnologia está disponível.Nós realmente precisamos trabalhar rápido para chegar lá.
Chefe Carmen Best: Eu concordo com isso.A questão é o que estamos fazendo com essa tecnologia quando a encontramos.E os regulamentos e as regras em torno dele não estão acompanhando o rápido desenvolvimento do mesmo. Portanto, embora pensemos que é realmente importante, queremos garantir a proteção da privacidade das pessoas e dos problemas que às vezes entram em conflito com a tecnologia que possuímos.
No Departamento de Polícia de Seattle, temosuma advogada cujo trabalho em período integral é especialista em privacidade, para garantir que estamos trabalhando com nossa tecnologia da informação em outros lugares da cidade, que não estamos violando os direitos à privacidade das pessoas. Portanto, é uma questão muito grande para todos nós.
MN: E isso realmente fala da necessidade de ação regulatória. Mas como todos sabemos, o governo, por design, se move lentamente. Também existe um ímpeto nas empresas de serem mais transparentes?Porque muitos deles não são conhecidos por contar sua história ou explicar essas tecnologias. Muitos dos acordos que eles fazem com as agências policiais acontecem em segredo; portanto, como pode haver confiança do público nessa inovação e em como ela está sendo usada e o que isso significa para eles, se as pessoas que estão construindo não estão realmente dizendo a eles o que isso significa?significa?
Chefe Carmen Best: Eu poderia questionar isso porque, pela minha experiência, eu só trabalho na polícia há 28 anos, mas na minha experiência, na maioria das vezes quando obtemos coisas, temos que ter um mandado de busca. Existem parâmetros embutidos em como obtemos essas informações, como as utilizamos. Eles não podem sair e fazer arbitrariamente essas coisas sem ter uma revisão judicial e esse tipo de coisa.
Eu ficaria mais preocupado com a indústria privada menos regulamentada. Imagino que o Google tenha muito mais informações sobre você do que o Departamento de Polícia de Seattle. Existe uma arena que provavelmente é muito mais invasiva e tem muito mais informações do que a maioria de nós. Luke Larson: Ao pensarmos no desenvolvimento de novos produtos na Axon, criamos um novo órgão consultivo chamado nossoConselho de Ética.E criamos isso para nos aconselhar sobre como devemos utilizar a inteligência artificial, mas também amplas aplicações tecnológicas.E, portanto, não acho que as empresas devam criar essas soluções no vácuo. Acho que eles precisam buscar orientação das diferentes partes interessadas.
Especificamente com a aplicação da lei, é realmente importante entender as comunidades às quais eles servem e quais são os diferentes dados demográficos e partes interessadas nessas comunidades.E verifique se eles estão representados quando tomamos essas decisões.
Portanto, em nosso conselho consultivo de ética, temos técnicos.Nós também temos líderes policiais. Também temos acadêmicos éticos.E quando estamos lutando com as implicações dessas decisões, estamos falando, mesmo que pudéssemos fazer alguma coisa, é a coisa certa a fazer, e devemos implementar medidas para proteger coisas como a identidade das pessoas, efeitos posteriores?E, finalmente, não acho que esse seja o trabalho da empresa. Acho que procuramos o governo para regular essas decisões.
Representante dos EUA Pramila Jayapal: Eu concordo que as empresas têm um papel a desempenhar e uma responsabilidade a desempenhar, porque são elas queentender a tecnologia mais.E eu realmente aprecio o seu grupo consultivo.E acho que a outra parte não é apenas pensar nisso à medida que a tecnologia é desenvolvida, mas como você vê os efeitos do que está acontecendo, como você responde imediatamente?
E eu vou lhe dizer que, no reconhecimento facial como exemplo, existem algumas empresas, a Microsoft é uma delas que tem sido muito boa em trabalhar conosco para realmente pensar sobre o que precisa ser feito.E mesmo se você viu o excelente artigo de Brad Smith pedindo regulamentação, o que nem sempre é o caso de muitas empresas, mas acho que há outras empresas que apenas cagaram nos estudos e disseram: “Ah, não há evidências.Não há provas.Não precisamos fazer nada sobre isso. ”
Então, eu acho que há uma responsabilidade real pelas empresas que desenvolvem essas tecnologias, porque uma vez que a tecnologia está disponível, você não pode colocar o gêniode volta na garrafa. Você não pode controlar o que a China faz com essa tecnologia de vigilância contra os uigures ou colocar a mesma tecnologia em telefones celulares quando as pessoas atravessam uma fronteira terrestre.
Então, eu realmente acho que há responsabilidade por toda parte, eo governo precisa ser mais rápido na maneira como reagimos às coisas. Precisamos incorporar à nossa regulamentação o conhecimento de que a tecnologia vai mudar e precisamos trabalhar com as empresas e todas as partes interessadas para garantir que estamos acertando a regulamentação.
A seguir, Dave Limp, vice-presidente sênior encarregado dos negócios de dispositivos e serviços da Amazon. assistentes de voz sem o conhecimento geral dos clientes.O que você e sua equipe da Amazon aprenderam com a reação do cliente a essas revelações?Como essas reações estão moldando o que você está fazendo agora?
Dave Limp: Bem, a primeira coisa que você deseja fazer quando ouvir a resposta dos clientes é consertar oquestão. Portanto, nem sempre é perfeito nessas áreas, mas estávamos prontos com o recurso em 24 horas para oferecer aos clientes a possibilidade de optar por não fazer anotações humanas. Então acho que fomos os primeiros a oferecer isso.E, ao mesmo tempo em que fizemos isso, também esclarecemos nossos termos de serviço e as mensagens que temos em nosso hub de privacidade. Temos um local central para o Alexa, onde você busca todas as coisas relacionadas à privacidade, para deixar bem claro que estamos fazendo isso.
Se eu pudesse voltar no tempo, seria o que eu faria melhor. Eu teria sido mais transparente sobre o porquê e quando estamos usando anotações humanas.O fato é que isso é algo bem conhecido na indústria de IA, pelo menos. Seja bem conhecido entre a imprensa ou os clientes, está bem claro que não éramos bons o suficiente lá.
E não se trata apenas de discurso.A fala é uma área que os humanos estão anotando, mas nos seus mapas, as pessoas estão anotando as rotas que você toma. Com permissão, seus registros médicos para melhorar a IA para raios-X estão sendo anotados.O estado da arte da IA está em um lugar tão hoje que a anotação humana ainda é necessária.
Imagino um futuro, e acredito que isso acontecerá, e se você ler os últimos trabalhos de pesquisa sobre onde a AI estáem breve, haverá um dia em que combinações de aprendizado federado e aprendizado não supervisionado, além de transferir aprendizado e algoritmos ainda não inventados, aliviarão a necessidade de anotações humanas e valências. Mas esse dia, não acreditamos, é hoje.
TB: Como você disse, você foi o primeiro a oferecer aos clientes a opção de optar por não fazer uma revisão humana das gravações de voz. Mas a Apple, na verdade, mais tarde deu um passo adiante e disse: “Por padrão, isso não estará em vigor. Humanos não revisarão suas gravações. Os clientes podem optar por participar. ”Por que não dar esse passo adiante?
Dave Limp: Sim. Também adicionamos um recurso que permitia que os clientes ativassem a exclusão automática. Então, adicionamos essas duas coisas aproximadamente ao mesmo tempo, com cerca de um mês de diferença. Sentamos ao redor da sala e conversamos sobre a diferença entre aceitar e não aceitar.É importante, a primeira coisa fundamental, e eu sei que as pessoas nem sempre acreditam nisso, mas não queremos dados por causa de dados na Amazon. Eu estive lá nove anos. Posso garantir que esse é o caso. Queremos usar dados onde possamos realmente melhorar a experiência em nome do cliente.
E, portanto, entramos em uma sala, tivemos exatamente esse debate.E em muitos, muitos exemplos, e posso dar alguns, se você estiver interessado, os dados que anotamos, e é uma pequena fração de 1%, a propósito, é incrivelmente importante para melhorar o Alexa e o serviço.
Vou dar um exemplo, que acabamos de lançar há duas semanas na Índia, com um novo idioma, o hindi.E sabemos que nos primeiros 90 dias de um lançamento, com a ajuda da anotação e outros esforços algorítmicos que fazemos, que a precisão do Alexa em hindi será 30 a 35% melhor. Então, você se senta ao redor da mesa e diz: "Queremos manter essa melhoria do cliente e não torná-la 35% melhor?" A resposta é não.E você precisa de um corpus de dados que seja amplo o suficiente de todos os tipos de geografias e dados demográficos diferentes para fazer esse avanço.E é aí que pousamos.Não sei como outras empresas estão planejando fazê-lo. Perguntas melhores para eles.
TB: deve haver um amplo princípio do setor que você usaria dentro da empresa ou em todo o setor para orientar essas decisões, para que você não as tome ad hocDave Limp: Eu certamente acho que há espaço para regulamentação em muitas áreas, em lugares em que estamos hoje. Temos sido muito públicos sobre isso. Penso que, em relação à ética na IA, existe amplo espaço para regulamentação, seja por meio de políticas ou leis. Acho que é uma boa pergunta para debatermos.
Em segundo lugar, em torno da privacidade, há todo tipo de espaço para regulamentação também.Não concordo com todas as nuances da lei, mas o RGPD, que é o esforço dos europeus para adicionar políticas de privacidade mais rigorosas, é muito, muito bom.E então as coisas que não são necessariamente boas.
Mas, no geral, acho que é muito, muito bom. Onde provavelmente não é tão bom é apenas ambíguo.Às vezes, o problema é que existem áreas cinzentas e você não sabe escrever código e deseja que seja uma regulamentação clara sempre que possível. Mas acho que, nesses dois lugares, há muito espaço para regulamentação e estamos abertos a isso com certeza.
Via: Geek Wire
Nenhum comentário