L’univers de la photographie connaît une révolution avec la computational photography (« photographie par ordinateur » en français). Un expert de la photographie avance que cette innovation permet de capturer des moments à la manière d’un professionnel en utilisant un simple smartphone. Il est question d’Alexander Schiffhauer qui travaille sur les téléphones Pixel.

Réaliser un panorama à 360 degrés avec l’appareil photo de son smartphone en étant en rotation sur soi-même. Cette manière de capturer la beauté d’un paysage s’appelle la computational photography.

Il s’agit d’un ensemble de procédés permettant d’améliorer les capacités de la photographie digitale, comme l’affirme le professeur Marc Levoy. Il enseigne les sciences informatiques à l’Université de Stanford et s’impose en spécialiste de la photographie chez Google.

Au fil des années, les appareils photo gagnent en puissance, ce qui peut inciter les usagers à souscrire une assurance appareil photo. Désormais, le support intégré aux smartphones se veut être plus performant que les appareils photo reflex.

Comment le nouveau procédé se démarque-t-il ?

Le maching learning permet au mode HDR d’étudier les tonalités de lumière prises par la caméra avant que le photographe n’ait le temps de poser le doigt sur le déclencheur.

Autre avantage de l’apprentissage automatique : l’appareil photo peut remonter le temps de quelques secondes, de manière à sauvegarder l’instant voulu. Cette technique est par exemple utile lorsque sur une photo, une personne a les yeux fermés. Certaines applications permettent de l’appliquer, tout comme iOS 7.

Isaac Reynolds qui travaille chez Google AI sur le Pixel 4 ne manque pas d’avancer les particularités de la computational photography :

 Avec le machine learning, nous pouvons être vraiment, vraiment bons pour capturer l’instant le plus authentique et candide. Et même si le photographe ne le voit pas, la caméra, elle, en est capable.

Ce que l’appareil photo du Pixel 4 peut donner

Dans quelques années, les photographies ne seront-elles plus que le fruit de l’intelligence artificielle et non plus l’œuvre d’individus ? Il reste aussi à savoir sur quel plan l’univers de la photo sur appareil mobile sera de nouveau transformé. Les usagers ont déjà profité des modes « 3D », du mode « astrophotographie » chez Google ou du « Deep Fusion » chez Apple.

En tout cas, les capteurs du Pixel 4 ne sont pas encore assez puissants pour assurer la stabilité de l’appareil. L’utilisateur doit donc prendre plusieurs photos pour ensuite les fusionner. Encore faut-il choisir le moment idéal d’exposition, car le smartphone ne capte pas forcément une grande quantité de lumière, comme le fait un reflex numérique.

Chaque exposition est espacée de 16 secondes, sachant que l’appareil prendra 15 clichés au plus. Le rôle du software du Pixel 4 est d’aligner chaque photo avec l’autre. La photographie est ensuite segmentée.