Was ist der Leistungsunterschied zwischen Workstation- und Desktop-GPU für CUDA-Berechnungen?

2992
Steven C. Howell

Beim Vergleich von Workstation- und Desktop-GPU-Karten ist nicht klar, was sich eigentlich zwischen den beiden unterscheidet. Ich verstehe, dass eine Workstation-Karte für den professionellen Einsatz besser geeignet ist und eine Desktop-Karte für Spiele, aber was bedeutet das für CUDA-Berechnungen? Die Beiträge, die ich gesehen habe, scheinen sich auf CAD- und 3D-Rendering zu konzentrieren. Ich bin daran interessiert, c / c ++ - Code auszuführen, der für CUDA- Cores von einem Linux-System aus geschrieben wurde.

Die Desktop-Karte vergleicht 2 Karten mit ähnlichem Preis und bietet doppelt so viele CUDA-Kerne und 50% mehr Speicher.

  1. Quadro K4200 ist derzeit stolz auf 789 $
    • 1344 CUDA-Kerne
    • 4 GB 256-Bit GDDR5
  2. Die GeForce GTX 980 Ti kostet derzeit 699 $
    • 2816 CUDA-Kerne
    • 6 GB 384-Bit GDDR5

Gibt es andere Unterschiede, die berücksichtigt werden sollten?

3

1 Antwort auf die Frage

3
Divin3

Beide Karten haben ihre Vor- und Nachteile:

Die Leistung des GTX ist wesentlich besser:
http://gpu.userbenchmark.com/Compare/Nvidia-Quadro-K4200-vs-Nvidia-GTX-980/2838vs2576

Die GTX 980 basiert auf der neueren Maxwell-Architektur der zweiten Generation, das heißt, sie unterstützt wahrscheinlich neuere Technologien als die Quadro K4200 (die immer noch auf der Kepler-Architektur der ersten Generation basiert, obwohl sie Teil der neuesten Quadro-Produktreihe ist).

Über das Quadro:

Ich wollte also den Nvidia Quadro K4200 kaufen, weil mir gesagt wurde, dass seine Treiber eine bessere Viewport-Leistung unterstützten. Ich sah jedoch, dass viele Benutzer in verschiedenen Foren sagten, dass sie nicht beeindruckt waren von dem Viewport-Performance-Bump, den es bereitstellte, und dass es vernachlässigbar war. Sie befanden sich im Lager "GTX-hat-viel bessere Spezifikationen für den Preis". "Team GTX"

Ich habe dann Leute mit dem Standpunkt gesehen, dass Spezifikationen überhaupt keine Rolle spielen und dass es "alles in den Treibern" ist. ("Team Quadro") Sie erklären, dass die überlegenen Treiber von Quadro einen dramatischen Unterschied im maximalen Arbeitsablauf bewirken und den hohen Preis absolut wert sind. Sie sagen auch, dass es wichtige Hardwareunterschiede gibt, dass nicht nur Quadro / Drosselt GTX-Treiber optimiert werden.

"Team GTX" spricht dann dagegen, dass dies eigentlich wahr war, aber Quadro und GTX haben sich in den letzten Jahren konvergiert. Sie geben Anekdoten darüber an, wie gut ihre Benchmarks und Diskussionen online sind entweder veraltet (beispielsweise die Quadro NON-Kepler-Serie), oder sie vergleichen lediglich Spielekarten / Workstation-Karten ohne Crossover. Ich habe Head-to-Head-Benchmark-Sites verwendet, bei denen die GTX 980 weit überlegen ist. Die Benchmarks scheinen sich jedoch wiederum auf Spieler zu richten.

Weitere Komplikationen sind die GTX 970/980 und der Titan. Es scheint, dass der Titan wenig Vorteile bietet, um den Preis für mich zu rechtfertigen.

Quelle

Siehe auch:

Grafikkarten der GTX 900-Serie werden derzeit nicht von ADOBE Developers unterstützt, um nvidia-Treiber zu erhalten und sie als ADOBE SIGNED GTX 900 DRIVERS zu zertifizieren, wie es Nvidia mit Microsoft für Windows (WHQL-Windows-Hardware-Qualitätslabore) tut ... für jetzt GTX 900-GPUs praxisnah Basierend auf der CUDA-API und der GPU GM204 ist die GTX 980 ohne Maxwell-Verbesserungen funktionsfähig, reagiert aber wie eine alte Fermi- oder Kepler-Version.

Momentan basieren alle Bestien wie HP Z840, Precision T7810, Celsius R940, Thinkstation P900 auf Quadro-Karten, da die für diese GPUs signierten Treiber über ISV-Zertifizierungen für alle Medien verfügen, einschließlich Decoder und Encoder auf VIDEO für AE und PR.

Es ist nicht wichtig, eine GPU auszuwählen, die viele Gpixel / s oder Gtexel / s oder eine große Speicherbandbreite hat (ok, sie sind wichtig). Wählen Sie eine zertifizierte GPU als erste aus. Like Quadro 2000/4000 / 5000/6000 Low Budget jetzt und Quadro K 2000/2200/4000/4200/5000/5200 oder Special Game-GPUs, die für AE und PR, GTX 780, GTX Titan und GTX 780 Ti zertifiziert sind und die Spezifikationen sehen.

Quelle

In einer ähnlichen Frage gibt es eine viel detailliertere Erklärung:

Im Algemeinen:

  1. Wenn Sie viel Speicher benötigen, benötigen Sie Tesla oder Quadro. Verbraucherkarten haben eine maximale Kapazität von 1,5 GB (GTX 480), während Teslas und Quadros bis zu 6 GB haben.

  2. Bei der GF10x-Serie ist die FP64-Leistung (Double Precision) auf 1/8 der FP32-Leistung (Single Precision - FP32) beschränkt, während die Architektur die Hälfte erreicht. Ein weiterer Marktsegmentierungstrick, der heutzutage bei Hardware-Herstellern sehr beliebt ist. Durch die Verkrüppelung der GeForce-Linie soll die Tesla-Linie bei HPC einen Vorteil erzielen. Die GTX 480 ist tatsächlich schneller als Tesla 20x0 - 1,34TFlops gegenüber 1,03 TFlops, 177,4 GB gegen 144 Gb / Sek (Peak).

  3. Tesla und Quadro werden (sollen) gründlicher getestet werden und sind daher weniger anfällig für Fehler, die für das Spiel ziemlich irrelevant sind. Wenn es jedoch um wissenschaftliches Computing geht, kann ein einzelner Flip-Flop die Ergebnisse beeinträchtigen. NVIDIA behauptet, dass Tesla-Karten QC-d sind und rund um die Uhr verfügbar sind.

Ein kürzlich veröffentlichtes Dokument (Haque und Pande, Hard Data zu Soft Errors: Eine umfassende Bewertung der realen Fehlerraten in GPGPU) legt nahe, dass Tesla tatsächlich weniger fehleranfällig ist.

  1. Ich habe die Erfahrung gemacht, dass GeForce-Karten in der Regel weniger zuverlässig sind, insbesondere bei konstanter Belastung. Die richtige Kühlung ist sehr wichtig und es wird auch vermieden, übertaktete Karten, einschließlich werkseitig überlasteter Modelle, zu vermeiden

Quelle

Es gibt auch eine Diskussion darüber in den Kommentaren dieses Beitrags

Beim Allzweck-GPU-Computing mit CUDA besteht ein deutlicher Leistungsunterschied. Während GeForces Arithmetik mit doppelter Genauigkeit unterstützen, scheint ihre Leistung künstlich auf 1/8 Single-Precision-Leistung begrenzt zu sein, während Quadros, wie zu erwarten, die Hälfte der Single-Precision-Leistung erreicht. Haftungsausschluss: Dies ist Wissen aus zweiter Hand, ich mache CUDA selbst nicht. In OpenGL hingegen verwenden sowohl Quadros als auch GeForces nur Arithmetik mit einfacher Genauigkeit. Dies basiert auf der Beobachtung unseres CAVE, bei dem die Quadros, auf denen die Renderknoten ausgeführt werden, genau dieselben Rundungsprobleme aufweisen, wenn mit Modelldaten mit großem Umfang gearbeitet wird, wie dies bei normalen GeForces der Fall ist. Zum Glück gibt es Workarounds.

Ein weiterer nützlicher Link, den stvn66 gefunden hat und zusammenfassen wird:
https://www.pugetsystems.com/labs/articles/GTX-980-Ti-Linux-CUDA-performance-vs-Titan-X-and-GTX-980- 659 /

Vielen Dank für die schnelle Antwort und all die verschiedenen Links. Ich fand auch [dieses Dokument, das die Leistung der GTX 980 Ti CUDA dokumentiert] (https://www.pugetsystems.com/labs/articles/GTX-980-Ti-Linux-CUDA-performance-vs-Titan-X-and-GTX -980-659 /) hilfreich. Steven C. Howell vor 9 Jahren 0
@ stvn66 Soll ich dies in meine Antwort aufnehmen, damit es anderen Zuschauern helfen kann? Könnten Sie auch entscheiden, welche Ihren Bedürfnissen am besten entspricht, oder benötigen Sie weitere Informationen? Divin3 vor 9 Jahren 0
Sie sind herzlich eingeladen. Ich habe vor, ähnliche wissenschaftliche Berechnungen anzustellen, die er gemacht hat. Das Lesen, was Sie über die 1/8-Einzelpräzision vs 1/2 geteilt haben, hat mich dazu veranlasst, mit dem Quadros zu gehen, aber nachdem ich gesehen hatte, wie zufrieden er war (und zu wissen, dass wir einmal HPC-GPUs haben, teste ich und weiß, dass die Dinge auf meiner Workstation funktionieren) Ich neige zur GTX-Karte. Steven C. Howell vor 9 Jahren 0
@ stvn66 Ich wollte meine persönliche Meinung dazu nicht hinzufügen, aber ich stimme Ihnen zu. Divin3 vor 9 Jahren 0