Un appareil photo de 48 mpx sur l'iPhone 14 ?


Longtemps plafonné à 12 mégapixels, l'appareil photo principal de l'iPhone pourrait voir sa définition quadrupler en 2022. Selon l'analyste Ming-Chi Kuo, Apple adopterait un capteur de 48 mégapixels sur l'iPhone 14 avec la mise en place d'une technique de pixel binning. Aujourd'hui, les pixels du capteur de l'iPhone 12 mesurent 1,7 microns et ils passeraient à 2 microns sur l'iPhone 13. Avec l'iPhone 14, il redescendraient à 1,25 micron mais seraient capables d'être utilisés par groupes de quatre pour capter plus de lumière sur une image finale de 12 mégapixels.

L'iPhone 14 bénéficierait ainsi du meilleur des deux mondes, avec à la fois une plus haute résolution toujours pratique pour le zoom numérique ainsi que le recadrage, et la possibilité de capter plus de lumière pour de meilleures performances en faible luminosité. Ming-Chi Kuo ajoute au passage que cette nouveauté pourrait permettre d'enregistrer des vidéos en 8K pour les téléviseurs compatibles et les futures applications de réalité augmentée et virtuelle.


Appareils photos iPhone 12 Pro

Les appareils photos de l'iPhone 12 Pro



D'autres évolutions sympathiques seraient au programme pour la génération suivante, avec notamment l'adoption d'une caméra périscopique pour faire exploser le niveau du zoom optique en 2023. Pour l'iPhone 13 en 2021, les évolutions seraient plus mesurées et la principale avancée concernerait l'ultra grand-angle, qui serait totalement revu.

Des liens n'apparaissent pas ? Des images sont manquantes ? Votre bloqueur de pub vous joue des tours.
Pour visualiser tout notre contenu, merci de désactiver votre bloqueur de pub !

Retrouvez l'iPhone sur notre comparateur de prix.

PARTAGER SUR :

Sur le même sujet

Vos réactions (9)

So0paman

14 avril 2021 à 10:29

Bêtise uniquement marketing à laquelle j'aurai aimé ne pas voir Apple céder

pehache

14 avril 2021 à 11:00

@SoOpaman "Bêtise uniquement marketing"

Bien sûr que non, et ça fait au contraire parfaitement sens pour du zoom numérique. Bien sûr ça ne donne de bons résultats qu'en bonnes conditions de lumière, mais entre ça et rien ben c'est mieux d'avoir ça.

fabien77880

14 avril 2021 à 11:05

Bêtise je ne pense pas car en plein jour ça permettra de faire des zoom et couplé au processeur 3nm il va y avoir un super Gap photo géré par une puissance algorithmique de dingue.
On connaît la stratégie Apple de toute façon sur les cycles :
-1er cycle : changement de design avec quelques améliorations ici et là
-2ème cycle : une amélioration de la batterie ainsi que pour le logiciel pour de bien meilleures photos mais même design (sauf pour l’encoche normalement cette année qui aurait dû arriver sur le 1er cycle mais faut bien en laisser un peu)
-3cycle : on peaufine le design, on améliore encore d’un cran le tout et on rajoute une nouvelle fonction (APN bien souvent voire Face ID 2)

So0paman

14 avril 2021 à 11:29

@Pehache :

Effectivement j'ai réagi de manière un peu abrupte donc je vais expliquer mon point de vue (qui est plutôt factuel)

Absorber plus de lumière = Photosites plus gros. C'est la raison pour laquelle les appareils professionnels destinés à la captation d'image en basse luminosité comme le Sony A7sII a 12 Mpx sur un capteur plein format (voir du moyen format). Généralement, les marques d'appareil photo sérieuses se limitent à du 24/26 Mpx pour de l'APS-C, 50 Mpx pour du plein format. Donc voir 48 Mpx sur un capteur de Smartphone qui est minuscule, on comprend vite que quelque chose cloche.

Finalement les constructeurs de Smartphone mettent plus de MPX, pour les utiliser ensuite. Ca revient à dire qu'un gâteau découpé en 4 est plus intéressant à l'achat que le même gâteau non coupé parce que pour le même prix vous avez 4 gâteaux au lieu d'un seul C'est plus vendeur auprès du grand public, mais ça sert pas à grand chose.

Mais SURTOUT, les optiques de Smartphone, de par leur taille et la taille du capteur sont incapables de restituer autant de détails. C'est de la physique et ça s'appelle le phénomène de diffraction : La lumière est une onde, et plus elle passe dans un faible diamètre (donc le diamètre d'une optique photo minuscule) plus elle est interférée et ne sera pas donc restitué comme un point mais comme une tâche (qu'on appelle Tâche d'Airy, une simple recherche Google de ce terme devrait être assez parlant)

Résultat : Plus l'optique est petite, plus les tâches de lumières sont grosses. Et plus le capteur est petit, plus ces tâches vont se chevaucher = information perdue. Ca se calcule et ça s'appelle le pouvoir de résolution, c'est à dire la définition maximale qui peut être transmise à un capteur en fonction de sa taille et de la taille du diaphragme dans lequel passe la lumière.

Je ne vais pas faire le calcul ici, mais en cherchant un peu on trouve que pour un Smartphone, la définition maximale théorique à f2.0 est d'environ... 12 MPX. Et ça c'est la valeur maximale théorique, qui est en réalité bien moindre car ça suppose que l'objectif est absolument parfait optiquement : ce qui n'existe pas car n'importe quel objectif souffrira de défaut optiques et surtout ceux qui équipent les Smartphones qui sont médiocres.

Donc en réalité on peut tabler sur une valeur maximale de moins 10 Mpx transmis au capteur. C'est à dire que même aujourd'hui sur vos iPhone, vos photos en 12Mpx n'ont pas 12Mpx d'information. Ils en ont peut être 6/7, le reste est interpolé (en zoomant dans votre image sur un ordinateur, vous allez voir beaucoup de pixels côte à côté qui sont exactement de la même couleur car ils n'ont pas reçu chacun leur propre information). Donc même l'argument du zoom numérique ne tient pas, car on ajoute des pixels (= photosite) en trop grand nombre par rapport à la quantité d'information qu'il pourra recevoir. Résultat des groupes de pixel recoivent exactement la même information (la même tâche lumineuse ou "tâche d'Airy").

Finalement les pixels qui reçoivent la même information (et donc pas d'information finalement), c'est simplement le processeur qui les interpole et invente les données manquantes avec des algorithmes. Là dessus je rejoins fabien77880 qui insinue que la qualité photo pourra être améliorée avec de meilleurs algorithmes.

Sauf que ces algorithmes n'ont pas besoin de 50 Mpx pour travailler, ils pourraient tout aussi bien "étirer" une photo de 12 Mpx en ajoutant des informations et en créant des pixels qui n'existent pas avec l'IA. Ca existe déjà et Adobe le fait avec l'outil Super Resolution, qui peut faire passer une photo de 10 Mpx a une photo de 40 Mpx avec du Machine learning.

So0paman

14 avril 2021 à 11:29

(Déso pour le pavé je ne m'en étais pas rendu compte avant de le poster)

wKns

14 avril 2021 à 11:58

C'est vrai ton histoire de diffraction mais tu négliges le pattern de Bayer pour la couleur des pixels et les techniques de déconvolution. Le nombre de pixel peut-être un argument marketing c'est certain, mais ça peut aussi aider pour le post-processing si c'est fait intelligemment (binning en basse luminosité et déconvolution pour le zoom numérique en haute luminosité).

druks

14 avril 2021 à 13:16

Énorme pavé de @So0paman, mais 100% d’accord avec ton avis, tellement marketing comme « avancée »

VanZoo

14 avril 2021 à 15:48

Effectivement, il faut qu'Apple en finisse avec ses capteurs 12MP ; ils semblent plafonner avec cette techno

pehache

14 avril 2021 à 17:02

@So0paman

Si la résolution réelle d'un capteur 12Mpix n'est pas 12Mpix c'est aussi parce qu'il y a un filtre anti-aliasing devant le capteur, censé limiter les artefacts que donnerait la matrice de Bayer sans cela. Même en réduisant la diffraction avec de plus grandes ouvertures ça n'améliorerait pas la résolution. Par contre en passant à un capteur de 48Mpix ce n'est plus le filtre anti-aliasing qui va limiter, mais l'ouverture. Il "suffit" alors d'augmenter l'ouverture.

L'article parle de photosites de 1,25 microns (ce qui avec 48Mpix suppose un capteur plus grand que l'actuel, à priori). Avec une ouverture f/1.8 le rayon de la tache d'Airy est de 1,5 microns : c'est plus grand qu'un photosite, mais ça permet je pense d'exploiter la résolution réelle du capteur avec son filtre, ou pas loin...

"objectif souffrira de défaut optiques et surtout ceux qui équipent les Smartphones qui sont médiocres."

Les objectifs des smartphone HDG ne sont pas médiocres, et il faut tenir d'une chose : avec un zoom numérique seule la partie centrale du capteur est utilisé. Or là où les défauts optiques sont difficiles maîtriser c'est sur les bords, alors qu'au centre ce n'est pas si difficile que ça de faire un bon objectif.

Réagir
Vous devez être connecté à notre forum pour pouvoir poster un commentaire.

Plus loin Connexion
Plus loin Inscription