DVI-I-zu-VGA-Adapter funktioniert nicht (analoges Signalproblem?)

973
Caleb

Ich habe zwei Monitore, die nur VGA-Eingänge haben. Der Computer, an den ich sie anschließe, verfügt über VGA- und DVI-I-Ausgänge auf der Hauptplatine. Um den DVI-I an den zweiten VGA-Monitor anzuschließen, verwende ich den standardmäßigen Standardadapter, der wirklich leicht zu finden ist.

Es hat alle 24 Pins sowie den "-" - Stift und die vier Pins, die den "-" umgeben. Ich bin sicher, dass es der richtige Adapter ist. Ich habe es mit einem anderen Computer getestet und es funktioniert arbeiten. Es weigert sich jedoch, auf dem Computer zu funktionieren, den es benötigt. Der Computer funktioniert auch nicht mit einem ähnlichen Adapter.

Ich habe mit einem IT-Mann gesprochen, den ich kannte, und er sagte, das Problem habe ich nicht gemacht. Der DVI-I-Anschluss gibt ein Signal über ein DVI-D-Kabel aus, und ich kann auch Daten senden, indem ich ein DVI-D-zu-HDMI-Kabel und dann eine HDMI-zu-VGA-Konverter-Box verwende. Ich denke, es gibt ein Problem beim Senden ein analoges Signal.

Irgendwelche Ideen?

Spezifikationen, die Sie möchten:

  • Grafik: AMD Radeon HD 6530D
  • Hauptplatine: BIOSTAR

Bitte denken Sie daran, dass Freundlichkeit und Respekt sehr geschätzt werden. Auch konstruktive Kritik .

1
Die Mobos, die ich verwendet habe, die sowohl VGA- als auch DVI-I-Anschlüsse haben, hatten nur einen RAMDAC. Wenn Sie also den VGA-Ausgang verwenden, steht für einen zweiten Monitor, der den DVI-Anschluss verwendet, nur ein digitaler Ausgang zur Verfügung. sawdust vor 7 Jahren 1

0 Antworten auf die Frage