Não há nenhuma dúvida de que o poder fotográfico é o grande chamariz dos iPhones 11 e 11 Pro [Max]. A Apple colocou nas suas novas câmeras boa parte das fichas para os novos aparelhos, e a aposta parece ter dado certo: o salto em relação aos iPhones XR e XS [Max] foi tão perceptível que, para quem leva fotografia a sério, vários analisadores fizeram a rara afirmação de que o upgrade vale a pena mesmo para quem tem aparelhos de 2018 (se o nosso review corroborará essa opinião, bom… aguardem para ver).
É bom notar, entretanto, que um pedaço importante do poder fotográfico dos novos iPhones ainda não está disponível. Trata-se do Deep Fusion, uma tecnologia criada pela Apple que deixará as fotos tiradas pelos aparelhos ainda melhores e mais fieis à realidade — e que foi classificada por Phil Schiller, na apresentação dos aparelhos, como “ciência maluca”.
Até agora, não há havia sinal da liberação do Deep Fusion — a Apple apenas prometeu o recurso para algum momento até o fim do ano, numa atualização de software. Pois o The Verge trouxe boas novas sobre ele: a tecnologia já está incorporada na primeira versão beta do iOS 13.2 (compilação 17B5059g
), liberada agora há pouco pela empresa para desenvolvedores. O Deep Fusion, aliás, tem tudo para ser a grande novidade da versão.
Mas o que é, exatamente, o Deep Fusion? A Apple já explicou em termos básicos como funciona a tecnologia, mas ainda há algumas dúvidas em relação ao seu funcionamento.
Em primeiro lugar, é importante deixar claro que o Deep Fusion é exclusivo dos iPhones 11 e 11 Pro [Max], porque depende de recursos presentes no chip A13 Bionic (e na versão atualizada do Neural Engine), que só está presente nesses aparelhos. Além disso, o recurso não é um modo específico que você pode ativar (ou desativar) manualmente — ele simplesmente existe de forma silenciosa, agindo sempre que o aparelho julgar necessário.
Mais especificamente, o Deep Fusion pode “conviver” com o HDR Inteligente (Smart HDR, que parte da mesma premissa, mas é menos avançado) e com o Modo Noite (Night Mode); cada um deles será ativado dependendo da quantidade de luz na cena e da lente utilizada — a ultra-angular, por exemplo, sempre usará o HDR Inteligente, já que não traz suporte às demais tecnologias.
O The Verge fez, também, uma explicação passo a passo do que acontece no seu iPhone quando você tira uma foto e o Deep Fusion está em atividade. É mais ou menos assim:
- Antes de você apertar o botão de captura, o iPhone já está capturando imagens continuamente; quando você dispara, o aparelho pega as fotos mais recentes e captura quatro imagens extras: três padrões e uma de longa exposição, para detalhes.
- As quatro imagens extras são combinadas em uma imagem só, chamada de “synthetic long” (longa sintética).
- O Deep Fusion escolhe a imagem de exposição rápida com mais detalhes e combina ela com a longa sintética. O processamento dá conta de remover imperfeições, como ruído, de forma mais apurada que o HDR Inteligente.
- As imagens passam por quatro passos de processamento de detalhes, pixel por pixel — cada um deles analisado e modificado para aprimorar suas características. Com isso, o sistema é capaz de saber como combinar as duas imagens, capturando detalhes de uma delas e tom, cor e iluminação da outra.
- A imagem final é gerada.
O processo leva, no total, algo em torno de meio segundo — o que significa que, se você tirar uma foto e tocar imediatamente no ícone para visualizá-la, o iPhone exibirá uma “simulação” da imagem por esse período, até que a foto final seja processada pelo Deep Fusion e exibida.
Vale notar que o Deep Fusion não é compatível com o modo de disparo sequencial, já que ele exige um processamento individual para cada imagem. Outro ponto importante é que a tecnologia não entrará em ação se você ativar a opção “Capturar Fotos Fora da Moldura” — isso porque o recurso usa justamente a câmera ultra-angular para capturar informações “extras” da imagem, fora do campo visível, que são exibidas quando você edita a foto em questão.
Limitações da teleobjetiva
Como vocês devem lembrar, desde os primeiros iPhones com uma segunda lente (teleobjetiva), o iOS detecta quando há pouca luz no ambiente e automaticamente usa a grande-angular principal (que tem uma abertura maior de diafragma) fazendo, assim, um corte (crop) digital na imagem.
Bem, é bom notar — conforme destacou John Gruber, no Daring Fireball — que a mesma coisa acontece quando usamos ambos o Modo Noite ou o futuro Deep Fusion. Ou seja, dá para optar pela teleobjetiva (2x) em ambos os modos, mas a lente usada para capturar a imagem de fato é grande-angular.
O fato é que o Deep Fusion está chegando e, em várias condições, trará boas novidades para o processamento de imagens nos iPhones — resta saber como tudo isso se traduzirá em benefícios no mundo real. Vamos aguardar.
Siri e apps de mensagens
Hoje mais cedo, também publicamos uma matéria sobre mudanças que a Apple está planejando para a Siri, flexibilizando a interação dela com apps de mensagem/telefone criados por terceiros.
Bem, segundo Mark Gurman, da Bloomberg, essa novidade também já está presente no iOS 13.2 beta.
Outras betas liberadas hoje
Além do iOS 13.2, a Apple também disponibilizou hoje para desenvolvedores o iPadOS 13.2 beta (compilação 17B5059g
), o watchOS 6.1 beta 2 (17S5059e
), o tvOS 13.2 beta (17K5059d
) e o Xcode 11.2 beta (11B41
).
Quaisquer novidades relevantes que surgirem sobre eles, atualizaremos este post.
Atualização, por Rafael Fischmann 02/10/2019 às 15:12
E já pintou ao menos uma outra novidade anteriormente prometida pela Apple no iOS 13.2 beta: o recurso de anunciar mensagens pelos AirPods.
Como noticiou o 9to5Mac, usuários poderão ouvir e responder mensagens de forma totalmente hands-free e sem ter que “chamar” a Siri manualmente. Além disso, desenvolvedores poderão incorporar suporte ao recurso em seus próprios apps de mensagem.
Ao menos por ora, o recurso só funcionará mesmo com AirPods.
Atualização II, por Rafael Fischmann 02/10/2019 às 15:24
Mais uma novidade avistada: suporte a Handoff para o HomePod. Ainda não está funcionando, porém, pois certamente também requer uma atualização do sistema do HomePod em si.
Atualização III, por Rafael Fischmann 02/10/2019 às 15:43
O iOS 13.2 beta também corrige um problema chato no HomeKit que agrupa acessórios relacionados numa “pilha” só:
Atualização IV, por Rafael Fischmann 02/10/2019 às 17:31
E já começaram a pipocar os primeiros testes do Deep Fusion:
Estes outros eu já não achei tão justos, pois comparam fotos de um iPhone 11 (com Deep Fusion) com um iPhone XR — ou seja, mesmo sem a novidade, a tendência é que as fotos do 11 já ficassem melhores de qualquer maneira.
Mesmo assim:
Atualização V, por Rafael Fischmann 02/10/2019 às 18:28
Eis o tom emitido pelos AirPods ao receber mensagens: