DVI-I-zu-VGA-Adapter funktioniert nicht (analoges Signalproblem?)
Ich habe zwei Monitore, die nur VGA-Eingänge haben. Der Computer, an den ich sie anschließe, verfügt über VGA- und DVI-I-Ausgänge auf der Hauptplatine. Um den DVI-I an den zweiten VGA-Monitor anzuschließen, verwende ich den standardmäßigen Standardadapter, der wirklich leicht zu finden ist.
Es hat alle 24 Pins sowie den "-" - Stift und die vier Pins, die den "-" umgeben. Ich bin sicher, dass es der richtige Adapter ist. Ich habe es mit einem anderen Computer getestet und es funktioniert arbeiten. Es weigert sich jedoch, auf dem Computer zu funktionieren, den es benötigt. Der Computer funktioniert auch nicht mit einem ähnlichen Adapter.
Ich habe mit einem IT-Mann gesprochen, den ich kannte, und er sagte, das Problem habe ich nicht gemacht. Der DVI-I-Anschluss gibt ein Signal über ein DVI-D-Kabel aus, und ich kann auch Daten senden, indem ich ein DVI-D-zu-HDMI-Kabel und dann eine HDMI-zu-VGA-Konverter-Box verwende. Ich denke, es gibt ein Problem beim Senden ein analoges Signal.
Irgendwelche Ideen?
Spezifikationen, die Sie möchten:
- Grafik: AMD Radeon HD 6530D
- Hauptplatine: BIOSTAR
Bitte denken Sie daran, dass Freundlichkeit und Respekt sehr geschätzt werden. Auch konstruktive Kritik .
0 Antworten auf die Frage
Verwandte Probleme
-
5
Wie konfiguriere ich meinen Monitor / mein Betriebssystem für eine optimale Farbanzeige?
-
6
Greifen Sie auf den Laptop zu, ohne das Display zu sehen
-
11
Wie kann ich ein DVI-Splitter-Kabel an einem DVI-Anschluss verwenden?
-
1
Monitor mit VGA-Anschluss kalibrieren
-
2
Grafikkarten für mehrere Monitore
-
3
Motherboard mit DVI, VGA und HDMI: Wie viele kann ich gleichzeitig verwenden?
-
4
Reparieren Sie den Laptop-VGA-Anschluss
-
6
Ist Displayport für Monitoranschlüsse DVI vorzuziehen?
-
1
Macbook Mini-DVI zu VGA-Ausgang defekt - Ursache?
-
3
Wie verwende ich einen VGA-Splitter, ohne dass das Bild dunkel wird?