Citation Envoyé par atropos Voir le message
Tout dépend du MTF que tu prends. Dans le cas de photozone, ils cherchent à compter le maximum de paires de ligne Noire/Blanche qu'on peut détecter avec un fort contraste (MTF50%). Dans la pratique, on est pour ainsi dire jammais dans ce cas de figure.

Après entre la théorie et la pratique il y a une grosse différence.

Un exemple simple avec un capteur monochrome sans filtre de 75x50 pixels et un objectif parfait. En théorie on doit pouvoir photographier un damier de 75x50 cases...

On s'arrange pour photographier un damier de sorte que une case du damier occupe exactement 1 pixel... On obtient un rendement de 100% et une photographie d'un damier de 3750 cases bien distinctes.

Maintenant, si on décale un peu l'appareil photo de sorte que chaque case se retrouve à cheval sur 2 pixels avec une répartition de 50% sur chaque pixel... On obtient un rendement de 0% et une photographie d'un rectangle gris uniforme de 75x50 pixels car chaque pixel verra par la même quantité de lumière.


Après, à partir de la position initiale et en se calant la case en haut à gauche du damier sur le pixel en haut à gauche du capteur, on s'arrage pour potographier le damier en s'éloignant un peu de sorte qu'il n'occupe plus que 74x49 pixels... On obtient une croix grise diffuse au centre du damier...


On fait l'inverse et on se rapproche de sorte qu'une case du damier ocupe 2.25 pixel (1.5 pixel de haut x 1.5 pixel de large). Alors qu'on souhaite photographier un sujet nettement moins détaillé que la résolution du capteur (un damier d'environ 50 cases de large sur 33 cases de haut), on perd toute notion de damier... On voit juste un motif plus ou moins régulier...

Enfin, on s'arrange pour incliné légèrement l'appareil photo sur sa droite de 5°. on obtient un "grillage" gris par dessus le damier. Avec une image beaucoup plus grande, on obtient un effet similaire (mais maillage plus grand) avec des angles nettement plus petits.


Tout ça pour dire qu'un capteur ne peut pratiquement pas pas détecter des détails régulier à fort constraste de l'ordre de sa résolution nominale dans de bonnes conditions. Ca ne marche que de façon pontuelle et celà dégrade grandement la qualité de l'image dans son ensemble. Donc on filtre pour réduire les abbérations provoqué par la matrice régulière du capteur mais en contrepartie on perd énormément en résolution. A un point tel que la grande majorité des cailloux sont bridé par le capteur.

PS: Et là on n'est que dans le cas d'un capteur monochrome, avec la couleur, c'est encore pire.

Super post de vulgarisation :clap: .

On va voir si j'ai compris:

Pour éviter les problèmes que tu décris, on a finalement intérêt à ce que la résolution du capteur soit largement supérieure à celle de l'objo mais que l'image produite par le processeur ait une définition conforme à ce que peut produire l'objectif pour la taille de capteur.

Exemple:
soit un objectif doté d'une résolution théorique de 8 mpx sur capteur APS-C.
Si le capteur APS-C a lui même une résolution de 72 Mpx, on aura 9 pixels (un carré de 3x3) capteur pour un pixel objectif ce qui minimisera grandement les erreurs liés au décalage dont tu parles si finalement on produit une image de 8 mpix dont la valeur de chaque pixel est calculée à partir d'une moyenne effectuée sur 9.