Citation Envoyé par TheYoda Voir le message
bof, pour avoir essayé de comparer les 2 DVI/VGA sur des écrans HP haut de gamme et une Nvidia Quaddro, je ne peux pas dire que le DVI était vraiment mieux que le VGA...
J'adore ces remarques qui disent que le DVI est pas mieux que le VGA.

Petit HS pour expliquer :
Le VGA est le format des écrans cathodique, il véhicule un signal analogique directement utilisable par le canon à electron (ou presque). Il y a 5 canaux : RVB + syncho h (le retour chariot) et synchro V (nouvelle page). C'est la carte video qui génère ce signal au moyen du convertisseur Numérique analogique.
Le DVI est un format numérique, ce qui signifie que c'est la matrice de point qui est envoyée, c'est le format des écrans LCD puisque la dalle est justement une matrice de point.

Que se passe-t'il lorsque l'on branche un lcd en vga. L'image (contenue dans la ram de la carte video) est transformé en signal analogique de type balayage. ce signal est récupéré par l'écran qui fait l'opération inverse (transforme le balayage en matrice de point pour l'afficher).

En DVI, l'info de la puce de mémoire est juste copiée sur la dalle (une puce et une dalle, ce sont 2 matrices de transistors, ça marche pareil).

En gros, en utilisant le VGA on fait 2 opérations qui s'annullent, mais qui ne sont pas sans conséquence sur le rendu.
Lorsque l'on utilise le VGA, il y a des menus entiers (sur la carte video et sur l'ecran) pour regler : la hauteur, la largeur, la position, des décalages de phase etc... Ces menus s'appliquent aux fameux convertisseurs. En DVI rien de tout ça, l'image est immédiatement bien positionnée. De plus en DVI l'ecran informe la carte video de ses capacités et donc l'affichage est directement à la résolution native.

Maintenant, pourquoi un écran sans prise DVI est moins cher q'un avec, c'est une sombre histoire de taxes...

PS : le cable DVI transporte aussi le signal analogique, mais il est coupé lorsque la partie numérique fonctionne.