Yo,
J'ai beau chercher je ne suis pas sûr de bien comprendre ces histoires de fréquences horizontales sur les moniteurs d'Arcade.
Je me souviens de mon premier écran de PC, un EGA qui offrait de mémoire du 320x200 en 16 couleurs maxi. Avant ça il y avait le CGA en 320x200 avec 4 couleurs immondes. Le VGA est arrivé après l'EGA et en 320*200 et 256 couleurs simultanées.
Donc si j'ai bien compris la résolution et le nombre de couleurs sont directement liées à la fréquence de balayage horizontale
Le fréquence verticale quant à elle détermine le nombre de trame complète affichée par seconde, en général 60 Hz.
J'ai bien assimilé que les cartes vidéo actuelles de PC synchronize en 31 Khz horitontal. Un signal envoyé en 31 Khz vers un moniteur d'arcade qui normalement ne supporte que du 15 Khz risque de le détériorer (à moins qu'il ne soit multisync) et que pour avoir le rendu d'origine (dans les salles de mon adolescence quoi !) d'un jeu il faut respecter la résolution et la fréquence d'origine dudit jeu (via MAME).
L'ArcadeVGA permet de converser en 15 Khz avec un moniteur d'Arcade. Par contre ce que je comprends pas c'est comment un moniteur change sa résolution de 320*200 en version batarde comme le 256*224 par exemple
Ca fonctionne peut-être en ajustant la fréquence par exemple en 14,89 Khz ou un truc du genre
Question subsidiaire, si on considère du CGA, de l'EGA et du VGA, la résolution d'affichage est toujours de 320*200 (hormis le nombre de couleurs qui change). Comment peut-on dire que la résolution est de meilleure qualité comme ce que je lis un peu partout
Voila, c'est un peu en vrac car big confusing in my head
Merci beaucoup
@+