1 votes

La sortie DVI-I détectée en tant que DVI-D entraîne la détection de l'écran, mais celui-ci reste noir.

J'ai connecté un vieux moniteur HP comme écran secondaire avec un câble D-SUB connecté à l'adaptateur D-SUB-DVI-I. L'écran reste noir, bien qu'il soit correctement détecté. Je suis sûr à 99% que la cause est que la sortie DVI-I de mon GPU est traitée comme DVI-D et n'envoie donc qu'un signal numérique (au lieu d'un signal analogique) au câble D-SUB, que le moniteur ne peut pas lire. Existe-t-il un moyen de faire en sorte que le port DVI-I soit traité comme DVI-I au lieu de DVI-D ?

Il ne fonctionne pas non plus lorsque l'écran HDMI principal est débranché. Tout fonctionne parfaitement sous Windows.

Sortie de Xrandr. Le DVI-I est détecté comme DVI-D

0voto

fma Points 1

Sans matériel "actif", il est impossible de "traiter" un signal DVI-D (numérique) comme un signal DVI-I (analogique). Vous avez besoin d'une sorte de convertisseur, et pas seulement d'un adaptateur de prise. Il existe de nombreux convertisseurs sur le marché - les facteurs décisifs sont la qualité de fabrication et la résolution et la fréquence de rafraîchissement maximales prises en charge par le convertisseur. Si vous disposez d'autres ports de sortie sur la carte vidéo (GPU), tels que HDMI et/ou Display Port, vous pouvez rechercher des convertisseurs HDMI vers VGA (D-SUB) ou DP vers VGA respectivement. Étant donné que, dans tous les cas, un signal numérique doit être transformé en signal analogique, vous n'êtes pas nécessairement limité à l'utilisation de DVI vers VGA.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X