Header Ads

Google derrama a mágica da câmera do Pixel 4

O Pixel 4 do Google pode ter adicionado a segunda câmera que há muito evita, mas um mergulho profundo no modo retrato mostra que não está diminuindo a velocidade na fotografia computacional. As versões anteriores do Pixel contavam com truques de pós-processamento para obter uma foto de bokeh falso de uma única lente, onde os rivais usavam os dados duplos de dois sensores adjacentes.

O argumento do Google era que ele poderia fazer o mesmo com software e uma única câmera que telefonescomo o Galaxy Note e o iPhone, foram necessárias duas câmeras. Tudo isso mudou com o Pixel 4 e o Pixel 4 XL este ano, é claro. Ao lado da câmera comum na parte traseira, há uma segunda câmera com uma lente telefoto 2x.

O dobro dos dados significa muito mais potencial a partir das imagens, com Neal Wadhwa, engenheiro de software do Google e Yinda Zhang, cientista de pesquisa da Google Research, descrevendo como eles aproveitaram o hardware e o software para melhorar coisas comoreconhecimento de borda, estimativa de profundidade e bokeh mais realista.

É importante basear-se em vez de substituir o sistema existente no modo retrato. Nos telefones anteriores, como o Pixel 3, o Modo Retrato dependia de um sistema Dual Pixel: cada pixel é dividido ao meio, cada um vendo uma metade diferente da abertura da lente principal.É apenas uma pequena diferença, mas essas duas perspectivas permitem que o aplicativo da câmera estime a distância, da mesma maneira que nossos olhos trabalham juntos para descobrir a que distância ou próximo algo está de nós.

O problema é que a distância real entre os pontos de vista que usam este sistema é menor que 1 mm, porque os meios-pixels estão muito próximos. Torna mais difícil descobrir a profundidade de objetos à distância, por exemplo.

Com as câmeras duplas no Pixel 4, há 13 mm de distância. Isso resulta em maior paralaxe e, portanto, melhores estimativas de distância para objetos mais distantes.O pixel duplo ainda é usado, no entanto, para ajudar com partes do quadro em que a visão de uma das câmeras principais é obscurecida.O Google canaliza tudo isso através de uma rede neural treinada para descobrir a profundidade.

Cortar o assunto em primeiro plano do fundo é apenas metade da batalha, no entanto. Para parecer mais realista, como uma lente de profundidade de campo rasa verdadeira foi usada, você precisa adicionar o fundo desfocado, conhecido como bokeh. No Pixel 4, o Google usa um novo pipeline quando adiciona desfoque, fazendo isso primeiro e depois aplicando o mapeamento de tons, e não o contrário.

A boa notícia é que, por causa do papel que o software desempenha nisso tudo, o Google pode promover coisas como melhor bokeh nas atualizações para telefones mais antigos. Se você tiver o aplicativo Google Camera v7.2, por exemplo, no Pixel 3 ou Pixel 3a, também terá esse sistema aprimorado de desfoque de fundo.

Via: Slash Gear

Veja Também:

Nenhum comentário