Desafio para o iPhone é pegar "toda essa ciência maluca e colocar atrás de um botão", diz executivo
Jon McCormack, vice-presidente de Engenharia de Software de Câmeras da empresa, diz que estratégia é ampliar automatização do aparelho na hora de fazer uma foto ou gravar um vídeo
Transformar todo o potencial dos algoritmos, aprendizado de máquina e inteligência artificial em novas soluções para as câmeras fotográficas do iPhone tem sido um dos maiores desafios e objetivos atuais da Apple. Em entrevista ao Globo, Jon McCormack, vice-presidente de Engenharia de Software de Câmeras da companhia, revela que a estratégia é reduzir a complexidade das configurações para o usuário com uma maior automatização na hora de fazer uma foto ou gravar um vídeo.
"O mais importante é que temos que inventar maneiras de pegar toda essa ciência maluca e a 'Arte da Fotografia' e colocar tudo isso atrás de um botão. Não precisamos inventar novas maneiras de pensar a fotografia porque ela remonta há cerca de 200 anos" disse McCormack.
Ele disse ainda:
"Se você pensar sobre como era antes, você teria o maior e melhor pedaço de vidro e de filme. Agora, você tem uma pequena lente e um pequeno sensor. E estamos obtendo uma melhor qualidade de imagem."
Leia também
• Apple atualizará software do iPhone 12 na França, após preocupação com emissões eletromagnéticas
• IPhone 12 faz mal à saúde? Entenda a polêmica com a decisão francesa
• iPhone 15: saiba o que a Apple abandonou com a chegada dos novos modelos
Na semana passada, a Apple anunciou quatro versões do iPhone 15 com mudanças na sua câmera. Agora, em todos os modelos, dos mais básicos aos mais avançados, a integração entre software e hardware permite captar, por exemplo, imagens no modo "retrato" de forma automática mesmo quando o usuário estiver usando outro formato, como "foto".
No ano passado, a companhia havia criado o modo "cinema" no qual a lente mudava o foco de forma autônoma de acordo com a movimentação do celular.
Resolução de 100 MP em fotos não é objetivo
"Sempre que você passa pensando nas configurações da câmera e em como captar a imagem é o momento em que você está se afastando daquilo está tentando fotografar. E não é assim que queríamos ser" completa McCormack.
O executivo lembra que o esforço central é investir em inteligência artificial na câmera em vez de aumentar a resolução a qualquer custo. Ele cita os investimentos da companhia no chip próprio, o Apple Silicon (em substituição aos chips da Intel), de forma a ter controle em todas as etapas, desde a lente até o processamento e a matemática final do iPhone.
"Quando pensamos numa mudança na lente, pensamos o que podemos fazer em IA ou no CPU (processador). E a câmera é um ótimo exemplo dessa estratégia de reunir o poder de computação de hardware e software. O desafio que estabelecemos para nós mesmos é pegar toda essa complexidade louca, todo esse tipo de compreensão da luz, de óptica, exposições e coisas assim e apenas escondê-lo atrás de um grande botão."
Por isso, ele descarta a ideia de que os futuros iPhones terão resolução de até 100 megapixel (MP), como vem sendo lançado por algumas outras empresas asiáticas. No iPhones 15, a Apple investiu em uma qualidade de imagem de até 48 MP e zoom óptico que chega a 10 vezes nas versões Pro.
"É mais uma questão do tipo: o que você faz com essa resolução? Uma maior resolução pega mais detalhes, mas você também pode fotografar muito rapidamente e é um ótimo benefício. Eu acho que resolução por resolução, digamos, não é muito útil. Você nunca vai nos ver dizer 'que temos uma câmera de 100 megapixels' e levar uma eternidade para tirar uma foto" pontua McCormack.
Ele cita o caso das redes sociais:
"O que você verá ser feito é olhar para uma resolução que seja útil. Se for necessário, aumentaremos. Mas olhamos para o consumidor e vemos se é realmente preciso, pois mais resolução ocupa mais espaço e exige muito processamento. Se olharmos as mídias sociais, eu filmo em 4K (de altíssima velocidade), mas posto em resolução de 1080 pixels (a chamada Full HD). E aí fazemos aquela pergunta : isso realmente ajuda o cliente? — questiona o executivo, um dos principais quadros da Apple, após Tim Cook, CEO da companhia.
Além disso, McCormack explica que o futuro das câmeras da companhia se concentra em oferecer uma experiência mais rápida na hora de captar imagens. Para isso, a companhia lançou nas versões Pro e Pro Max o chip A17Pro, com melhorias no chamado motor neural do iPhone.
"Muito a ser feito no iPhone"
Ele cita a criação do "Botão ação" na parte lateral do iPhone, que até então era usado para colocar o aparelho no modo silencioso. Agora, o usuário pode personalizar o comando, como fazer fotos mais ágeis sem a necessidade de abrir o celular.
Mas McCormack admite que ainda "há muito trabalho a ser feito no iPhone". O esforço da empresa é usar também a inteligência computacional com seus algoritmos para criar experiências pessoais e individuais.
— O tom da pele é um ótimo exemplo. É ter uma renderização de tom de pele realmente boa. Não importa qual seja a cor da sua pele e a sua aparência. Quando você aperta o botão, muitas coisas acontecem. Na hora da foto, vários frames se combinam para captar o máximo de luz, resolução e detalhes. E então é identificado tudo que está na moldura. Como as pessoas têm tons de pele diferentes, precisaremos desenvolvê-los de forma diferente. Olhamos para o cabelo, para os olhos e as roupas.
Geração Z
Maxime Veron, diretor sênior de Marketing de Produto da Apple, cita também a geração Z, um dos públicos que a Apple quer atrair com os novos modelos:
— Tudo que eles querem é autenticidade e uma câmera que apenas respeite seu tom natural de pele, que dê a representação autêntica sem nenhum filtro. Você realmente precisa que todo o sistema esteja sincronizado para todas as informações se misturarem perfeitamente. É tratar tudo que está na imagem de forma diferente. E então temos o processador gráfico e a CPU nos permitem fazer todos os cálculos. É entender que é uma pele na imagem e não apenas um grupo de pixels.
Promoções: Lojas dão desconto em iPhone 13 e 14 às vésperas do lançamento do 15
Veron lembra ainda que o sistema de inteligência na câmera permite edições após a captura:
— Você pode simplesmente tirar uma foto e depois pode entrar em edição e alterar os efeitos de iluminação e de profundidade para criar uma bela imagem. Ou seja, não é preciso pensar nisso na hora da foto. Na linha Pro, construímos lentes personalizadas no software, com aprendizado de máquina, que permite aos usuários alternar entre três distâncias focais, como 24 mm, 28 mm e 35 mm, além de escolher uma como novo padrão.
Sobre mudanças no design, Veron deixa possíveis mudanças em aberto:
— Estamos super felizes com o design das câmeras do iPhone 15 e 15 Pro. Então, vamos conversar novamente no próximo ano.