Was ist eine Matrox-GPU und warum hat der UNIX-Server meiner Universität eine solche?

8076
PascLeRasc

Ich interessierte mich für die Spezifikationen des UNIX-Servers, den meine Universität für Studenten bereitstellt, und so lief ich screenfetch . Hier ist die Ausgabe:

 user@unix4.university.edu `.-..........` OS: Red Hat Enterprise Linux 7.5 Maipo `////////::.`-/. Kernel: x86_64 Linux 3.10.0-862.14.4.el7.x86_64 -: ....-////////. Uptime: 9h 1m //:-::///////////` Packages: 3796 `--::: `-://////////////: Shell: bash 4.2.46 //////- ``.-:///////// .` CPU: Intel Xeon E5-2680 v2 @ 40x 3.6GHz [61.0°C] `://////:-.` :///////::///:` GPU: Matrox Electronics Systems Ltd. G200eR2 .-/////////:---/////////////: RAM: 8290MiB / 64215MiB .-://////////////////////. yMN+`.-::///////////////-` .-`:NMMNMs` `..-------..` MN+/mMMMMMhoooyysshsss MMM MMMMMMMMMMMMMMyyddMMM+ MMMM MMMMMMMMMMMMMNdyNMMh` hyhMMM MMMMMMMMMMMMMMMMyoNNNMMM+. MMMMMMMM MMNMMMNNMMMMMNM+ mhsMNyyyyMNMMMMsMM 

Alles, was ich zu Matrox-GPUs finden kann, ist ihre Wikipedia-Seite, auf der steht, dass der G200 1998 veröffentlicht wurde. Warum sollte meine Universität sie auf einem modernen Server haben (CPU wurde Ende 2013 veröffentlicht)?

28
Denken Sie, dass ein UNIX-Server was haben sollte? Eine Nvidia-Karte? Für welche Spiele genau? Nein, ein Server benötigt meistens nur etwas, um den Textmodus anzuzeigen. Ich kann mich nicht erinnern, aber die Leute von 1998 verwendeten bereits grafische Desktops mit Windows 98? Eine Matrox G200 ist viel leistungsfähiger als für einen Server erforderlich. GabrielaGarcia vor 6 Jahren 9
@GabrielaGarcia Viele Studenten verwenden diesen Server für CS-Hausaufgaben, und ich bin in einer Klasse, die Tensorflow verwendet. Ich hatte gehofft, dass es eine CUDA-GPU gibt, mit der man spielen kann. PascLeRasc vor 6 Jahren 12
Ich bin sicher, es gibt CUDA-Spezialprozessoren, nur nicht auf diesem Server. Sie kosten eine Menge Geld (und nein, was Sie wahrscheinlich als CUDA wissen, ist nicht einmal lustig - NVidia macht spezielle Karten. Warten Sie, bis Sie auf einen Server mit 6 davon für Tensorflow-Arbeit zugreifen ... jeder isst einen 2080ti zum Frühstück ). TomTom vor 6 Jahren 4
Und modern - ich kaufe gerade EPYC-Server. Mist VGA. "Modern"? Sicher. Jsut wie in den Antworten und meinem Kommentar angegeben, das ist der VGA für die Installation;) An Bord, billig, funktioniert. Gleich bei den meisten modernen Maschinen. Fügen Sie hinzu, was Sie brauchen. TomTom vor 6 Jahren 1
Hinweis für Benutzer von mobilen Apps, die in dieser Frage nur ASCII-Grafiken sehen: Scrollen Sie nach rechts oder tippen Sie auf den Codeblock, um die Informationen des Servers anzuzeigen! Andrew T. vor 6 Jahren 1
Ich erinnere mich an diese Art Grafikkarte, die sich in der BeBox in den guten Tagen befand. Das war im Moment ziemlich nett (obwohl vorher die meisten Besucher dieser Site geboren wurden ...). Damon vor 6 Jahren 0
@peterh Der E5-2680 v2 (Ivy Bridge) wurde Ende 2013 veröffentlicht und ist weiterhin bei Intel bestellbar. user71659 vor 6 Jahren 2
@ user71659 Leider war dies ein geschätzter Wert aus der Kernel-Version (und aus der Matrox). peterh vor 6 Jahren 0
Sind Sie wirklich sicher, dass dies keine virtuelle Maschine ist? trognanders vor 6 Jahren 1
@Trognanders Hypervisors emulieren keine Matrox (und wenn möglich, virtualisiert sie auch keine). Sie haben entweder einen eigenen GPU-Treiber oder stellen eine generische VESA-SVGA-Karte bereit. user71659 vor 6 Jahren 4
@ user71659 Ich wusste über die paravirtuellen Treiber Bescheid, aber ich habe nie darüber nachgedacht, dass * alles mit * SVGA-Treiber kommt. Sie haben definitiv recht, die Matrox-Karte scheint kein beliebtes emuliertes Gerät zu sein. trognanders vor 6 Jahren 0
@Trognanders: Ich habe hier mehrere physische Server von Dell und HP, und [die meisten verwenden G200] (https://imgur.com/a/XGRUMXH), die unter der BMC-eigenen PCI-Bridge angeschlossen sind, wie User1908704 erwähnt hat. (Obwohl der älteste ATi ES1000 verwendet.) grawity vor 6 Jahren 3
@ grawity Das ist ein hervorragender Datenpunkt. Ihre Hypothese gefällt mir, dass sie mit den Verwaltungselementen der Remote Console View verbunden ist. Scheint, dass dies definitiv ein Server ist, der direkt auf der Hardware läuft. trognanders vor 6 Jahren 0
@peterh: Nun, es ist RHEL. Wenn sie sich einen Kernel ausgesucht haben (v3.10 ist ab Mitte 2013), halten sie sich durch die gesamte 7.x-Serie, auch wenn dies bedeutet, dass weit über 800 backported-Patches oben liegen. grawity vor 6 Jahren 1
@TomTom Es gibt viel zwischen keiner GPU und einer dedizierten Karte. Speziell für Hausaufgaben kann etwas um eine 1070 oder sogar eine 750 eine anständige Geschwindigkeit ergeben, ohne zu viele Einschränkungen (von denen man übrigens viel lernen kann). Zum Beispiel recherchiere ich in ML und meine Maschine hat zwei 1070Ti, aber ich habe Zugriff auf fleischigere Maschinen, wenn ich sie brauche (das ist nicht so oft). Davidmh vor 6 Jahren 1

3 Antworten auf die Frage

72
grawity

Server für allgemeine Zwecke benötigen keine moderne GPU - gerade genug, um einen mittelgroßen Konsolendesktop anzuzeigen. Sie beschäftigen sich hauptsächlich mit dem regulären CPU-Computing und dem Netzwerkbetrieb.

Matrox G200-VGAs werden jedoch aufgrund ihrer Integration in einen Baseboard-Verwaltungscontroller (BMC, auch als iLO, iDRAC oder IPMI bezeichnet) auf Servern verwendet .

Dieser Management-Controller fungiert als unabhängiges System mit einem eigenen Betriebssystem und ermöglicht es dem Serveradministrator, eine Fernverbindung zu Display und Tastatur der Konsole herzustellen - er kann die BIOS-Bildschirme sehen, einen Server neu starten, selbst wenn er vollständig eingefroren ist, oder sogar mit voller Energie. aus. Für diese Aufgaben muss der Controller wissen, was der Grafikadapter gerade anzeigt.

So würde ich denke, dass die alten Matrox Video - Adapter für diese verwendet werden, weil sie den Videopuffer im System - RAM zu speichern (statt ihre eigenen VRAM) und ein ausreichend einfaches Datenlayout verwenden, dass die BMC es, ohne dass arkane Wissen über die GPU entziffern Interne, auch ohne Hilfe des Haupt-Betriebssystems.

(Oder vielleicht das Gegenteil - wie in Kommentaren erwähnt, ist der G200 normalerweise in den BMC integriert, wodurch der BMC möglicherweise vollständig direkten Zugriff auf den Videopuffer des G200 hat.)

Aber selbst wenn der Server für GPU-Computing entwickelt wurde, würde ich davon ausgehen, dass er keine "All-in-One-Grafikkarte" wie PCs haben würde, sondern stattdessen einen Satz dedizierter reiner GPGPUs (z. B. von nVidia) für schwere Nutzer Arbeit - und immer noch die gleiche Matrox VGA für die Konsole.

Ich vermute, es ist wahrscheinlicher, dass Matrox, als es für den Videokartenmarkt irrelevant wurde, das G200-Design für den BMC-Hersteller verkaufte oder lizenzierte, der in den BMC-Chip integriert wurde, der in die Remote-Verwaltungsfunktion integriert ist. R.. vor 6 Jahren 23
"Es hätte wahrscheinlich keine einzige" Grafikkarte "GPU wie PCs" - nein. Server hätten eine einzige GPU an Bord. Eine Serverplatine ohne integrierte GPU seit Ewigkeiten nicht gesehen. Sie fügen dann nach Bedarf Nvidia-Spezialkarten hinzu. Das gleiche gilt auch hier: Die G200eR2 ist an Bord. Es ist ein Chip, keine Karte. TomTom vor 6 Jahren 0
@TomTom: Richtig. Ich wollte G200 nicht einmal als "GPU" bezeichnen, weil ich den Eindruck hatte, dass es nicht viel 3D-Verarbeitung oder Beschleunigung gibt (was es anscheinend auch hat). grawity vor 6 Jahren 1
Es gibt keinen G200-Chip, er ist im BMC implementiert, der bereits PCIe spricht. Ich hatte angenommen, dass es sich tatsächlich um eine Neuimplementierung der Schnittstellen auf Registerebene handelte (in der Art und Weise, dass alle GPUs grundlegende VGA-Funktionen ausführen können, ohne auf etwas von 1985 zurückgreifen zu müssen), aber es stellt sich heraus, dass Matrox die G200-IP für Chip-Designer lizenziert. user1908704 vor 6 Jahren 14
Außerdem sind die Treiber für das G200 und ähnliche Matrox-Chips alt und stabil und absolut stabil. Das ist auch auf einem Server wichtig. Jamie Hanrahan vor 6 Jahren 4
@R .. - "Wenn Matrox für den Videokartenmarkt irrelevant wurde" ... Matrox ist für den Videokartenmarkt nie irrelevant geworden. Sie sind einfach * spezialisiert * - AIUI, sie sind Marktführer bei der Herstellung von Grafikkarten für Systeme, die eine sehr große Anzahl von Monitoren unterstützen müssen. Jules vor 6 Jahren 8
@JamieHanrahan: Wenn nur der ganze BMC auch steinhart wäre ... grawity vor 6 Jahren 2
@grawity, ich hatte damals eine ordentliche G200 in meinem PC. Es war nie für einen Spieler gedacht, aber es konnte ein vernünftiges 3D und die beste 2D-Beschleunigung in der Klasse erzielen, wobei es im Allgemeinen viel weniger Probleme gab als bei den heutigen nVidia und ATI. Im Grunde war es eine sehr hochwertige Karte, sowohl in Hardware als auch in Software, wobei die bescheidene 3D-Leistung der einzige Nachteil war. Eine weitere Anekdote: ein Unternehmen, für das ich gearbeitet hatte, um Matrox-Karten auf modernen PCs zu verwenden, da diese weiterhin alle älteren Modi wie 16 Farben (nicht 16 _bit_;) mit hoher Auflösung anboten. Zeus vor 6 Jahren 1
35
Tonny

Diese Matrox G200eR2 ist keine separate Grafikkarte. Es ist ein Chip, der direkt in das Server-Motherboard integriert ist. Es ist billig, sehr zuverlässig, einfach zu integrieren und bietet hervorragende Textanzeige (Konsolenanzeige) und anständige 2D-Grafikfähigkeit. Es ist auch so bekannt, dass für fast jedes Betriebssystem für Intel-Hardware Treiberunterstützung eingebaut ist.

Der einzige Zweck einer VGA-Karte besteht darin, eine grundlegende Konsolenanzeige zu erhalten, die Sie für die Bios-Einrichtung und die Erstinstallation des Servers verwenden können. Danach werden Sie wahrscheinlich immer nur remote auf den Server zugreifen. Es muss keine gute VGA-Karte sein. Sie werden nicht darauf spielen. Es ist jedoch ein großer Segen, wenn es mit dem Betriebssystem, das Sie auf dem Server installieren möchten, sofort einsatzbereit ist. Und das ist alles, was Sie auf einem Server brauchen und wollen.

Matrox-Chips waren zu diesem Zweck immer sehr beliebt, und dieser spezielle Chip wurde auch 2014 in neuen Dell-Servern und wahrscheinlich auch in einigen anderen Marken verwendet.

Auf den meisten Servern gibt es die Unterstützung für (Grafik und Text) nur für Betriebssysteme wie Windows. Die Verwaltungsschnittstelle unterstützt fast immer das BIOS-Setup über einen seriellen Port (normalerweise über den BMC über das Netzwerk zugänglich) und Betriebssysteme wie Linux können eine vollständige Installation und den anschließenden Betrieb mit einer seriellen Konsole durchführen, sodass Sie niemals das "Video" verwenden müssen. Konsolenanzeige überhaupt. Dies ermöglicht die Remote-Installation eines nackten Computers, den Sie noch nicht einmal berührt haben, obwohl dies häufig auch per Remote-Video über das Netzwerk erfolgen kann. Curt J. Sampson vor 6 Jahren 0
"Sie werden nicht darauf spielen." - sprechen Sie für sich selbst, ich habe Automatisierungsprogramme für Online-MMorpg-Spiele erstellt und es rund um die Uhr laufen lassen, um rudimentäre, aber nützliche Aufgaben auf Servern auszuführen. hanshenrik vor 6 Jahren 2
@ CurtJ.Sampson, darüber bin ich mir nicht sicher ... Ein VGA-Ausgang ist immer noch die "Standard" -Schnittstelle, die jedes Gerät hat. Damit können Sie völlig unterschiedliche Geräte an einen einzigen KVM-Switch anschließen (netzwerkbasiert oder nicht). In ganz einfachen Fällen müssen Sie den Management-Controller gar nicht erst berühren. Unabhängig vom Betriebssystem wäre es nicht lästig, keinen VGA-Ausgang und keinen Tastaturanschluss zu haben. ilkkachu vor 6 Jahren 0
@ilkkachu VGA ist die "Standardeinstellung" für ISA-Hardware "PC", war jedoch bei den meisten anderen Serversystemen (Sun usw.) noch nicht der Fall. Wenn Sie es für zweckmäßig halten, einen KVM oder was auch immer zu verwenden, machen Sie dies sicher weiter, aber die serielle Serie hat viele Vorteile (z. B. schneller, insbesondere bei schlechten Netzwerken, Sie können alle Ausgaben protokollieren, einfacher automatisieren, ...). Was die Verwaltungseinheit anbelangt, ignorieren Sie diese nicht, es sei denn, Sie schließen nicht ihren Netzwerkport an. Selbst wenn sie gut konfiguriert sind, sind sie unglaublich unsicher, und ein nicht konfigurierter Server lädt die Systemübernahme durch jeden ein, der Pakete senden kann. Curt J. Sampson vor 6 Jahren 1
Ach ja, und ich kann aus langjähriger Erfahrung sagen, dass es für Unix-Server in typischen professionellen Umgebungen kein VGA ist, in keiner Weise ein Ärgernis. In der Tat kann es ärgerlicher sein, wenn Sie es haben und sicherstellen müssen, dass das System es nicht verwendet. (Sie glauben nicht, dass alle von Amazon und Google betriebenen Cloud-Server echte oder emulierte Videoausgabe verwenden, oder?) Curt J. Sampson vor 6 Jahren 0
@ CurtJ.Sampson, ich glaube nicht, dass Sun-Server heutzutage so üblich sind (oder sogar seit geraumer Zeit). Ich wundere mich über ARM-basierte Systeme und dergleichen, aber ich wäre trotzdem bereit, ein paar Drinks an den meisten Orten zu setzen, die Server haben, einschließlich aller kleinen Büros, und solche, die ausschließlich x86- "PC" -artige Maschinen haben. Google, FB und Amazon können sich nicht wirklich vergleichen, sie verfügen möglicherweise über vollständig benutzerdefinierte Hardware, und selbst wenn sie überflüssige Geräte auf ihren Servern hatten, müssen sie nur einmal pro Computertyp deaktivieren, nicht einmal pro Server ... ilkkachu vor 6 Jahren 0
15
zx485

Warum sollte meine Universität sie auf einem modernen Server haben (CPU wurde Ende 2013 veröffentlicht)?

Weil ein Server keine Hochleistungs-GPU benötigt. Übrigens hatte
Matrox gute Multi-Monitor- Grafikkarten, lange bevor ATI / AMD und NVidia sie hatten.

Die Entscheidung war also wahrscheinlich zum Zeitpunkt des Kaufs logisch gewesen.

Sehr logisch * und * sehr kostengünstig, nehme ich an, angesichts des Alters des Chips. GabrielaGarcia vor 6 Jahren 0
+1 für alte treue Matrox'es ... einpoklum vor 6 Jahren 0