O melhor pedaço da Maçã.

Primeira beta do iOS 13.2 inclui Deep Fusion para os iPhones 11, 11 Pro e 11 Pro Max [atualizado 5x: novidades]

Exemplo de foto tirada com o recurso Deep Fusion

Não há nenhuma dúvida de que o poder fotográfico é o grande chamariz dos iPhones 11 e 11 Pro [Max]. A Apple colocou nas suas novas câmeras boa parte das fichas para os novos aparelhos, e a aposta parece ter dado certo: o salto em relação aos iPhones XR e XS [Max] foi tão perceptível que, para quem leva fotografia a sério, vários analisadores fizeram a rara afirmação de que o upgrade vale a pena mesmo para quem tem aparelhos de 2018 (se o nosso review corroborará essa opinião, bom… aguardem para ver).

Publicidade

É bom notar, entretanto, que um pedaço importante do poder fotográfico dos novos iPhones ainda não está disponível. Trata-se do Deep Fusion, uma tecnologia criada pela Apple que deixará as fotos tiradas pelos aparelhos ainda melhores e mais fieis à realidade — e que foi classificada por Phil Schiller, na apresentação dos aparelhos, como “ciência maluca”.

Exemplo de foto tirada com o Deep Fusion (clique/toque para ampliar).

Até agora, não há havia sinal da liberação do Deep Fusion — a Apple apenas prometeu o recurso para algum momento até o fim do ano, numa atualização de software. Pois o The Verge trouxe boas novas sobre ele: a tecnologia já está incorporada na primeira versão beta do iOS 13.2 (compilação 17B5059g), liberada agora há pouco pela empresa para desenvolvedores. O Deep Fusion, aliás, tem tudo para ser a grande novidade da versão.

Mas o que é, exatamente, o Deep Fusion? A Apple já explicou em termos básicos como funciona a tecnologia, mas ainda há algumas dúvidas em relação ao seu funcionamento.

Publicidade

Em primeiro lugar, é importante deixar claro que o Deep Fusion é exclusivo dos iPhones 11 e 11 Pro [Max], porque depende de recursos presentes no chip A13 Bionic (e na versão atualizada do Neural Engine), que só está presente nesses aparelhos. Além disso, o recurso não é um modo específico que você pode ativar (ou desativar) manualmente — ele simplesmente existe de forma silenciosa, agindo sempre que o aparelho julgar necessário.

Exemplo de foto tirada com o Deep Fusion (clique para ampliar).

Mais especificamente, o Deep Fusion pode “conviver” com o HDR Inteligente (Smart HDR, que parte da mesma premissa, mas é menos avançado) e com o Modo Noite (Night Mode); cada um deles será ativado dependendo da quantidade de luz na cena e da lente utilizada — a ultra-angular, por exemplo, sempre usará o HDR Inteligente, já que não traz suporte às demais tecnologias.

O The Verge fez, também, uma explicação passo a passo do que acontece no seu iPhone quando você tira uma foto e o Deep Fusion está em atividade. É mais ou menos assim:

  1. Antes de você apertar o botão de captura, o iPhone já está capturando imagens continuamente; quando você dispara, o aparelho pega as fotos mais recentes e captura quatro imagens extras: três padrões e uma de longa exposição, para detalhes.
  2. As quatro imagens extras são combinadas em uma imagem só, chamada de “synthetic long” (longa sintética).
  3. O Deep Fusion escolhe a imagem de exposição rápida com mais detalhes e combina ela com a longa sintética. O processamento dá conta de remover imperfeições, como ruído, de forma mais apurada que o HDR Inteligente.
  4. As imagens passam por quatro passos de processamento de detalhes, pixel por pixel — cada um deles analisado e modificado para aprimorar suas características. Com isso, o sistema é capaz de saber como combinar as duas imagens, capturando detalhes de uma delas e tom, cor e iluminação da outra.
  5. A imagem final é gerada.

O processo leva, no total, algo em torno de meio segundo — o que significa que, se você tirar uma foto e tocar imediatamente no ícone para visualizá-la, o iPhone exibirá uma “simulação” da imagem por esse período, até que a foto final seja processada pelo Deep Fusion e exibida.

Vale notar que o Deep Fusion não é compatível com o modo de disparo sequencial, já que ele exige um processamento individual para cada imagem. Outro ponto importante é que a tecnologia não entrará em ação se você ativar a opção “Capturar Fotos Fora da Moldura” — isso porque o recurso usa justamente a câmera ultra-angular para capturar informações “extras” da imagem, fora do campo visível, que são exibidas quando você edita a foto em questão.

Limitações da teleobjetiva

Como vocês devem lembrar, desde os primeiros iPhones com uma segunda lente (teleobjetiva), o iOS detecta quando há pouca luz no ambiente e automaticamente usa a grande-angular principal (que tem uma abertura maior de diafragma) fazendo, assim, um corte (crop) digital na imagem.

Bem, é bom notar — conforme destacou John Gruber, no Daring Fireball — que a mesma coisa acontece quando usamos ambos o Modo Noite ou o futuro Deep Fusion. Ou seja, dá para optar pela teleobjetiva (2x) em ambos os modos, mas a lente usada para capturar a imagem de fato é grande-angular.


O fato é que o Deep Fusion está chegando e, em várias condições, trará boas novidades para o processamento de imagens nos iPhones — resta saber como tudo isso se traduzirá em benefícios no mundo real. Vamos aguardar.

Siri e apps de mensagens

Hoje mais cedo, também publicamos uma matéria sobre mudanças que a Apple está planejando para a Siri, flexibilizando a interação dela com apps de mensagem/telefone criados por terceiros.

Publicidade

Bem, segundo Mark Gurman, da Bloomberg, essa novidade também já está presente no iOS 13.2 beta.

Outras betas liberadas hoje

Além do iOS 13.2, a Apple também disponibilizou hoje para desenvolvedores o iPadOS 13.2 beta (compilação 17B5059g), o watchOS 6.1 beta 2 (17S5059e), o tvOS 13.2 beta (17K5059d) e o Xcode 11.2 beta (11B41).

Quaisquer novidades relevantes que surgirem sobre eles, atualizaremos este post.

Atualização, por Rafael Fischmann 02/10/2019 às 15:12

E já pintou ao menos uma outra novidade anteriormente prometida pela Apple no iOS 13.2 beta: o recurso de anunciar mensagens pelos AirPods.

Como noticiou o 9to5Mac, usuários poderão ouvir e responder mensagens de forma totalmente hands-free e sem ter que “chamar” a Siri manualmente. Além disso, desenvolvedores poderão incorporar suporte ao recurso em seus próprios apps de mensagem.

Ao menos por ora, o recurso só funcionará mesmo com AirPods.

Atualização II, por Rafael Fischmann 02/10/2019 às 15:24

Mais uma novidade avistada: suporte a Handoff para o HomePod. Ainda não está funcionando, porém, pois certamente também requer uma atualização do sistema do HomePod em si.

Atualização III, por Rafael Fischmann 02/10/2019 às 15:43

O iOS 13.2 beta também corrige um problema chato no HomeKit que agrupa acessórios relacionados numa “pilha” só:

Atualização IV, por Rafael Fischmann 02/10/2019 às 17:31

E já começaram a pipocar os primeiros testes do Deep Fusion:

Em meus primeiros testes, o Deep Fusion oferece ganhos bem modestos em nitidez (e arquivos bem maiores — meus HEICs ficaram ~2x maiores).

Estes outros eu já não achei tão justos, pois comparam fotos de um iPhone 11 (com Deep Fusion) com um iPhone XR — ou seja, mesmo sem a novidade, a tendência é que as fotos do 11 já ficassem melhores de qualquer maneira.

Mesmo assim:

Os primeiríssimos testes do #DeepFusion no #iPhone 11
E outro teste relevante, é possível ver que o 11 já é bem mais nítido que o XR mesmo antes de o Deep Fusion ser aplicado.

Atualização V, por Rafael Fischmann 02/10/2019 às 18:28

Eis o tom emitido pelos AirPods ao receber mensagens:

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Dispositivos com Android podem ser agora usados como 2ª tela para Macs

Próx. Post

Mapas da Apple e recurso Olhe ao Redor chegam a mais cidades nos EUA; veja a expansão

Posts Relacionados