Ja, das ist im Grunde die Art, wie die Videoausgabe bis heute durchgeführt wurde. Es wurden Speicher zwischen 1 und 8 kB als Videopuffer reserviert, die CPU berechnete die Ausgabe und speichert sie im RAM.
Es gibt jedoch einige Unterschiede zu einer modernen Grafikkarte:
- Es gab keine hochauflösenden Schnittstellen wie HDMI oder VGA. Normalerweise wurde Composite-Video mit NTSC- oder PAL-Farbschema für Heimcomputer verwendet, um an einen Fernseher angeschlossen zu werden.
- Für den Textmodus wurde nur der ASCII-Code Byte für Byte im Speicher gespeichert. Die Videoschaltung hatte ein kleines ROM mit den 5 × 7-Punktmatriken jedes Zeichens. Auf diese Weise kann ein Bildschirm mit 40 x 25 Zeichen in nur 1 KB gespeichert werden.
- Es gab spezielle Chips wie Intel 8275, die alles integrieren (Zugriff auf Pufferspeicher, Generierung von Pixeltakt und Synchronisation für NTSC-Monitore, Zugriff auf Character-Dot-Matrizen-ROM usw.), aber manchmal wurde die gesamte Videologik mit TTL-Logik-ICs ( Beispiel: Apple II).
- Da RAM gemeinsam genutzt wurde, verwendete die Videoschaltung DMA oder eine andere Methode, um die CPU für den RAM-Zugriff zu unterbrechen. Die Videoschaltung hatte fast immer eine höhere Priorität, da es keine Pipelines zum Puffern der Daten gab und der Pixelausgang des Videosignals zeitkritisch war.