Wird beim Ersetzen einer Bordkarte durch eine Standalone-Karte weniger Wärme erzeugt?

409
bobo

Wenn ich einige Spieleanwendungen starte, wird mein Computer, der eine integrierte Grafikkarte verwendet, sehr schnell sehr heiß.

Denken Sie, dass der Ersatz einer Bordkarte durch eine Standalone-Karte weniger Wärme erzeugt?

Da die CPU nicht speziell für Spiele- oder 3D-Anwendungen vorgesehen ist, sind diese Jobs für die CPU ziemlich intensiv.

Durch die Verwendung einer separaten Grafikkarte wird die meiste Arbeitslast auf diese Karte verlagert, und da sie für diese Art von Anwendungen entwickelt wurde, sind diese Jobs möglicherweise nicht besonders intensiv.

Denken Sie im Allgemeinen, dass dies wahr ist?

0
Unter maximaler Last erzeugt die separate Grafikkarte wahrscheinlich mehr Wärme, aber sie hat einen besseren Kühlkörper / Lüfter, um sie abzuleiten. Sie müssen sich die thermische Kontrolle des Gesamtsystems ansehen. BJ292 vor 12 Jahren 4

2 Antworten auf die Frage

1
Bon Gart

Dies hängt vollständig von der dedizierten Videokarte ab, die Sie in das System einsetzen, im Allgemeinen jedoch nicht. Eine dedizierte Grafikkarte würde MEHR Wärme erzeugen, da dies eine leistungsfähigere GPU wäre und es schwieriger wäre, eine bessere Anzeige zu bieten.

Jetzt ist "die meiste Arbeitslast darauf verlagert" ... nicht genau. Erstens, reden wir über die neueste Generation von Intel- und AMD-Prozessoren, in die im eigentlichen CPUS integrierte GPUs eingebaut sind? Oder sprechen wir von älteren Systemen, bei denen eine GPU in das Design des Motherboards integriert ist? Denn für das, worüber Sie sprechen, handelt es sich um Äpfel und Orangen.

In den Systemen, in denen CPU und GPU voneinander getrennt sind, die GPU jedoch Teil des Motherboards ist, gibt es STILL eine separate GPU, die ihre eigene Wärme erzeugt und ihre eigene Arbeit erledigt. Es gibt empirische Belege dafür, dass in einem solchen integrierten System die CPU insgesamt härter arbeiten wird, aber es wurden keine tatsächlichen Benchmark-Testergebnisse veröffentlicht, um dies zu beweisen.

Sie haben also eine schwächere, kleinere integrierte GPU, die einerseits Wärme erzeugt, und die größere, leistungsfähigere dedizierte Grafikkarte, die Wärme erzeugt.

Denk darüber so. Auf Systemen mit integrierter GPU sehen Sie möglicherweise einen Kühlkörper, aber auf diesem Kühlkörper ist selten ein Lüfter zu sehen. In Bezug auf Videokarten werden Videokarten heutzutage selten ohne Lüfter angezeigt. Warum? Sie erzeugen eine Tonne Wärme.

1
Ben Voigt

If you're shifting computing tasks from CPU to GPU, you may well use less power per unit of work. But this only applies to very specific tasks (scientific simulations, mostly, which includes Seti@Home, or brute-force encryption such as BitCoin) and the software has to be specially written with GPGPU code.

Moving tasks from one GPU to the other will have negligible effect. However the separate card does have its own memory controller, etc. so there is more power usage at idle. But not that much, really.

Turning up settings in your games because the discrete GPU is much more capable will result in much higher power usage. This is why powerful GPUs have a reputation for producing a lot of heat. And this is where your assumption breaks down. Yes, CPUs are less efficient at processing graphics. But that necessarily means they do less work, not that they consume more power. Even for GPGPU, the video card rarely uses less power than the CPU, it just gets much more work done.

Of course, this extra heat is being produced on a separate board, which may be less problematic as far as overheating is concerned.

As a general rule, the integrated GPUs are designed with an emphasis on low power usage, not performance. Discrete graphics cards will use more power and create more heat.