Qualcomm Cloud AI 100 tem como objetivo superar a inteligência digital
A Qualcomm quer destilar parte da magia da nuvem e seus processadores Snapdragon para um processador de IA, e a Microsoft e o Facebook já estão integrados ao novo Cloud AI 100. Um chip feito sob medida e projetado para levar a IA em nuvem. processamento para o data center, o novo acelerador promete aplicações de realidade mista, para jogos, para personalização.
Embora já tenhamos visto aceleradores de IA baseados em chips para dispositivos móveis, o Qualcomm Cloud AI 100 não usa os chipsets móveis existentes do Snapdragon. Em vez disso, é um chip inteiramente novo e específico, diz a Qualcomm.
O resultado é o pico de desempenho da IA em mais de 50x o que você obteria de um Snapdragon 820. Ele é baseado em processos de 7nm e deve ser capaz de atingir mais de 10x o desempenho, afirma a QUALCOMM soluções de inferência atualmente no mercado, baseadas em CPUs, GPUs ou FPGAs. O fator de forma é decidido pelo próprio cliente, com cartões diferentes projetados para diferentes data centers.
O Cloud AI 100 suporta os tempos de execução Glow, ONNX e XLA, além de frameworks como PyTorch, Caffe2, Keras e TensorFlow. Ele virá com um conjunto completo de compiladores, debatedores, criadores de perfil e muito mais, tornando a velocidade ainda mais simples. E, apesar de não usar os chips Snapdragon explicitamente, a Qualcomm diz que se envolveu muito com os desenvolvedores de consumo de energia, escala e processamento de sinais dos chipsets móveis para tornar o Cloud AI 100 mais eficiente.
Por que tudo isso é importante? Principalmente porque os requisitos que estaremos fazendo com inteligência artificial nos próximos anos colocarão uma séria pressão sobre os sistemas baseados em nuvem que prevalecem atualmente. Várias empresas - todas as grandes fabricantes de chips - estão procurando a chamada computação de ponta para ajudar a lidar com isso.
A computação de borda compensa parte da carga de trabalho da nuvem, fazendo pelo menos parte do processamento local primeiro. A vantagem óbvia é que a nuvem tem menos trabalho pesado para fazer. No entanto, também existem grandes vantagens potenciais em latência e largura de banda.
Como você não está transferindo grandes quantidades de dados brutos, a taxa de transferência pode ser melhorada e as redes deixadas menos estressadas. A IDC está prevendo que, até 2025, a soma coletiva dos dados do mundo chegará a 175 zettabytes e uma parte considerável disso dependerá da nuvem. A latência envolvida na transferência de dados para a nuvem, tê-la processada ali e depois receber algo significativo em retorno também pode ser considerável. Fazê-lo na borda, em vez disso, pode reduzir significativamente essa latência.
Isso pode render dividendos quando se trata de desenvolver assistentes pessoais que podem fazer processamento e tradução de linguagem natural, bem como pesquisa avançada de imagens. Também será possível dimensionar melhor com conteúdo e recomendações personalizadas, promete a Qualcomm. Outros aplicativos de computação de borda comumente discutidos incluem coisas como o processamento autônomo de carros, com sistemas de baixa latência usados para fornecer reconhecimento de imagem mais rápido e muito mais. No entanto, ela não será tão radical quanto os carros que se dirigem: a Qualcomm está falando sobre como a IA avançada ajudará no monitoramento da conscientização do motorista, junto com recursos como configurações de driver personalizadas que aprendem com as preferências individuais do usuário.
Para os consumidores, obviamente, o Cloud AI 100 não é algo que eles desejam colocar em seu próximo PC ou smartphone. No entanto, os benefícios obtidos podem ser notáveis, dependendo dos serviços que eles usam e assinam. Saberemos mais quando a Qualcomm começar a amostrar o novo chip para os consumidores, o que deverá ocorrer no segundo semestre de 2019.
Via: Slash Gear
Nenhum comentário