Werden ungenutzte GPU-Kerne verwendet, wenn ich eine dedizierte Grafikkarte hinzufüge?

1967
lukehawk

Wenn diese Frage stumm ist, entschuldige ich mich. Ich bin ein etwas fortgeschrittener Anfänger in Sachen Hardware und lerne immer noch.

Ich habe einen AMD A8-7600. Es verfügt über 10 Kerne (4 CPU + 6 GPU). Ich brauchte mehrere (4) Monitore und fügte zwei Grafikkarten hinzu.

Ich habe die integrierte Grafik deaktiviert. Verwendet der Prozessor diese 6 GPU-Kerne für irgendetwas? Ich fand das, aber die Kommentare dort sind mehr für Intel-Chip. Sie streiten sich darüber, ob die CPU-Kerne nach dem Hinzufügen einer dedizierten Grafikkarte eine bessere Leistung erbringen und sich nicht wirklich damit befassen, was mit den GPUs geschieht. Der Konsens scheint eine schnellere CPU ohne die von der GPU erzeugte Wärme zu sein, und eine bessere Leistung, ohne den Arbeitsspeicher mit der GPU zu teilen. Dies bedeutet, dass sich die GPUs im Leerlauf befinden, aber ich bin mir nicht sicher, ob dies der Fall ist und ob dies für Intel und AMD gilt.

Meine Frage bezieht sich mehr auf das, was diese 6 Kerne jetzt tun, wenn Grafiken erstellt werden. Sind die GPU-Cores im Leerlauf? Oder werden sie beauftragt? Gibt es eine Möglichkeit, dies zu testen?

(Ich würde gerne hören, dass diese Kerne verfügbar sind. Ein Teil des Grunds, warum ich dieses Rig gebaut habe, war die Möglichkeit, mehrere Millionen statistische Simulationen ausführen zu können. Dies würde erheblich helfen, wenn man 6 oder 8 Kerne gleichzeitig ausführen kann parallel statt nur 2 oder 3.)

0
Wenn deaktiviert, dann nein. Moab vor 7 Jahren 1
Ein Teil des Grunds, warum ich dieses Rig gebaut habe, war die Möglichkeit, mehrere Millionen statistische Simulationen ausführen zu können. Dies würde erheblich helfen, wenn Sie 6 oder 8 Kerne gleichzeitig ausführen können, anstatt nur 2 oder 3. "Laufen die Simulationen auf der CPU? Wenn ja, machen mehr Grafikkerne nichts. TheKB vor 7 Jahren 0
Die Antwort auf diese Fragen hängt davon ab, wie Sie Ihre Berechnungen durchführen und welche Grafikkarte Ihre GPU-Karten haben. Crossfire würde Sie nicht zulassen, aber DX12 würde es tun, es hängt alles davon ab, wie die Simulationen berechnet werden Ramhound vor 7 Jahren 0

3 Antworten auf die Frage

4
DrZoo

Ich habe den Link nicht gelesen, den Sie haben, aber ich stimme nicht damit überein, dass die Leistung der CPU-Kerne beeinflusst wird, unabhängig davon, ob Sie über eine integrierte oder dedizierte GPU verfügen. Der einzige Fall, in dem die integrierte Grafik die CPU beeinflussen kann, ist der Fall, dass Sie über ein System mit einem einzelnen Kanal verfügen, da dies zu Engpässen führen würde. Eine integrierte Grafikkarte ist entweder auf dem Motherboard oder im Chip der CPU integriert. Obwohl sie auf demselben Chip untergebracht sein können, verfügen sie jeweils über eigene Verarbeitungsfunktionen, da der Grafikcontroller von der CPU getrennt ist.

Der größte Unterschied zwischen einer dedizierten und einer integrierten GPU ist der von ihnen zugewiesene Speicher. Eine integrierte GPU verwendet einen Teil Ihres Systemspeichers (RAM), anstatt einen eigenen dedizierten Speicher zu haben. Eine diskrete Grafikkarte verfügt über eine GPU und einen eigenen VRAM-Satz, anstatt den System-RAM zu verwenden. Der Arbeitsspeicher Ihrer Grafikkarte ist auch viel schneller als der Arbeitsspeicher des Systems.

Ihre Frage zur Verwendung der integrierten GPU-Kerne als CPU-Kerne wäre die Antwort Nein. Diese Kerne sind anders als CPU-Kerne ausgelegt. Es ist möglich, dass einige Programme GPU-Kerne verwenden, z. B. für Bitcoins. Aber diese Programme sind speziell darauf ausgelegt, so zu laufen.

0
JMY1000

Wenn sie deaktiviert sind, sind sie per Definition deaktiviert und tun nichts. Wie bei @DrZoo bereits erwähnt wurde, besteht die einzige Verbesserung der Leistung darin, dass zusätzlicher RAM freigegeben wird.

Wenn Sie diese GPU-Cores jedoch innerhalb eines Gaming-Workloads nutzen möchten, können Sie mit AMD Dual Graphics die GPU-Cores Ihrer APU in Crossfire mit bestimmten AMD-Karten verwenden. Laut der Produktseite empfiehlt AMD die Kopplung mit einem R7 240, wenn dies ein Pfad ist, den Sie gehen möchten.

Andere Workloads, z. B. GPU-basiertes Rendering, können andere Unterstützung für die Verwendung der GPU-Cores auf Ihrer APU bieten.

0
Dan570S

Ich kenne mich mit NVidia besser aus als mit AMD, aber ich glaube, dass diese Antwort auch für AMD gelten würde. Angenommen, Sie haben eine Karte aus den letzten paar Jahren gekauft und mehr als 25 US-Dollar gekostet, dann sollten Sie über erheblich mehr GPGPU-Leistung verfügen als in einer kombinierten ADM-CPU / GPU wie der AMD A8 (die über einen A8 und A10 verfügt.) Ich kann dir das sicher sagen.

Wie DrZoo hinsichtlich der Speichernutzung und der Architektur des A8 im Vergleich zur diskreten Karte herausstellt, erfahren Sie beim Kodieren der gewünschten Simulationen, wie die GPU selbst aus CPU-ähnlichen Speicherebenen (L1) besteht, L2, L3) und dass dieser Speicher sinnvoll genutzt werden kann, um von GPU-Blöcken und Threads gemeinsam genutzt zu werden, oder zwischen Host & Device (CPU & GPU) und statischem Speicher, um unveränderte Daten wie einen in Ihren statistischen Modellen verwendeten Wert zu verwenden wird in all Ihren Berechnungen verwendet. In diesem Fall kostet der statische Speicher nur einen Speicherlesevorgang, und selbst wenn Ihre Berechnung diesen Wert millionenfach erfordert, muss er nur einmal in den Speicher geladen werden, um ihn abzurufen.

Wenn Sie sich mit der Architektur heutiger Grafikkarten befassen (wiederum nur mit NVidia vertraut), werden Sie feststellen, dass Sie Zugriff auf Supercomputing-Fähigkeiten der massiven parallelen Verarbeitung haben, die Sie mit einem AMD A8-Chip niemals erreichen könnten. Sie werden sich Gedanken darüber machen, ob die GPU-Kerne im Leerlauf von Menschen mit Behinderungen keine Rolle mehr spielen, da Ihre 100-Dollar-Grafikkarte (oder die NVidia GTX 1080-Dollar in meinem Fall) so wesentlich leistungsfähiger ist, dass es sinnlos ist, sich um diese Kerne zu sorgen.