Citation Envoyé par papillon Voir le message
Que se passe-t'il lorsque l'on branche un lcd en vga. L'image (contenue dans la ram de la carte video) est transformé en signal analogique de type balayage. ce signal est récupéré par l'écran qui fait l'opération inverse (transforme le balayage en matrice de point pour l'afficher).

En DVI, l'info de la puce de mémoire est juste copiée sur la dalle (une puce et une dalle, ce sont 2 matrices de transistors, ça marche pareil).
En fait le signal DVI est le même signal que celui du VGA, mais numérisé, avec une différence de taille: alors qu'en analogique les valeurs de couleurs pour chaque pixel peuvent "déborder" d'un pixel sur l'autre, en DVI chaque pixel est parfaitement séparé des autres.

La conséquence est qu'on a, en théorie, des pixels toujours parfaits. Cette perfection peut tout à fait être obtenue en VGA, mais à condition d'avoir du matériel de qualité (convertisseurs, câbles...). Il est donc effectivement plus facile d'obtenir une bonne qualité en DVI qu'en VGA, mais ce n'est pas systématique.

J'ai par exemple une installation home cinema avec un projecteur Sanyo Z3, et j'obtiens une image sensiblement meilleure en YUV analogique qu'en HDMI, ceci n'étant pas lié à l'interface mais tout simplement aux circuits de traitement a priori meilleurs en YUV, peut-être parce que l'interface HDMI était récente à la sortie de ce matériel et que le concepteur avait donc moins d'expérience qu'en analogique. J'ose croire que cela n'est plus vrai sur les modèles plus récents.