Was sind die "Softwareanforderungen" für ein 3D-Video?

761
Diogo

Als ich heute nach den technischen Erklärungen zu MPEG4 suchte, sah ich, dass es das VRML- Rendering für ein 3D-Video implementieren kann . Daher frage ich mich, welche "Software" -Anforderungen erforderlich sind, um ein 3D-Video zu erstellen oder zu sehen. Ich meine, vorausgesetzt, ich habe alle "Hardware" -Anforderungen (3D-Monitor, VGA, 3D-Kamera usw.). Was muss ich machen, um 3D-Videos über die "Software" -Seite zu sehen und zu sehen? Muss ich es wegen der VRML-Unterstützung auf MPEG4 statt MPEG1 oder MPEG2 machen? Kann ich einen speziellen 3D-Codec zum Öffnen und Ansehen von 3D-Videos benötigen? Bis heute glaubte ich, dass ein 3D-Video nur ein normales / gewöhnliches Video ist, das aus zwei "überlappenden Ebenen" besteht.

PS: Dies ist das erste Mal, dass ich nach technischen Erklärungen / Referenzen zu MPEG-Standards und 3D-Videos recherchiere. Jede Hilfe oder grundlegende Erklärung wird hilfreich sein.

1

1 Antwort auf die Frage

3
Psycogeek

Es gibt 3D-Rendering in einer 2D-Ansicht und 2Eye 3D, bei der jedes Auge ein anderes Bild erhält.

VRML sind 3D-Cad-Zeichnungen, die normalerweise in 2D angezeigt werden.

Jeder vorhandene Videocodec ist in der Lage, eine Art 2Eye 3D zu erstellen. Mit jedem Bild- oder Videoprogramm kann eine Bearbeitung erstellt werden, die mindestens eine Art 2Eye 3D darstellt. Weil es viele verschiedene Methoden gibt, unterschiedliche Informationen an jedes Auge zu senden.

Also müssen wir zuerst die 2 Dinge "3D in 2D" http://en.wikipedia.org/wiki/3D_computer_graphics
von "2Eye 3D" oder Stereoscopic http://en.wikipedia.org/wiki/3D_television trennen .

Dann müssen wir den "Typ" von stereoskopischem 3D bestimmen, der gewünscht oder erwünscht ist oder erforderlich ist. Selbst die besten Methoden haben große Probleme, zwei separate Bilder an jedes Auge zu senden.

Anaglyphic: Das
einfachste und schlechteste 3D- Bild ist Anaglyphic http://en.wikipedia.org/wiki/Anaglyph_image
Anaglyphic 3D. Um die 2 verschiedenen Bilder zu definieren, wird jede Art von Farbfilterung auf die 2 verschiedenen Bilder angewendet Farbfilter werden vor den Augen platziert. Bei den Filtern vor den Augen wird versucht, die zusammengeführten Bilder wieder zu trennen, indem die Farbe für die Augen herausgefiltert wird.

Bei Video oder Bildern gibt es nichts anderes als Software-Hardware oder analoge oder digitale oder sogar Standardfotos zum Anzeigen, Rendern oder sogar Kodieren oder Umkodieren, Ändern der Größe oder Anzeigen des Anaglyphen. Es ist keine spezielle Hardware zum Anzeigen erforderlich, es ist keine spezielle Software erforderlich. Genau die richtige Farbe filtert die Augen

Jedes Videopaket und Fotoprogramm, das vor über 10 Jahren existierte, hatte die manuelle Fähigkeit, zwei Bilder für die Anzeige mit dieser Methode zusammenzuführen, indem Stand- oder Bewegtbilddaten zusammengefügt wurden. Jede riesige 3D-Spezialität der Software für Anaglyphen macht es einfach viel einfacher.

Nebeneinander und Oben Unten
Zwei verschiedene Bilder in einem, die für zwei verschiedene Augen angezeigt werden sollen. Hardware wurde verwendet, um die spezifische Hälfte des bewegten Bildes an verschiedene Augen zu senden. Jede der Methoden der 2Eye 3D-Ansicht kann dann mit spezieller Hardware 3D anzeigen. http://www.best-3dtvs.com/what-is-side-by-side-3d/

Das Besondere an einer Software, die diesen Typ erstellen, bearbeiten oder ändern würde, wäre, die 2 Zonen, 2 verschiedene Bilder für jedes Auge zu erstellen und sie als separate Zonen zu erhalten.

Ich versuche noch einmal darauf hinzuweisen, dass das Bildformat, der Bildtyp oder der Videotyp oder der Codec nichts Besonderes waren. Die Hälfte der Gesamtauflösung (die Hälfte des Bildes) wird an jedes Auge gesendet, daher war keine 2x-Bildrate erforderlich.
Die meiste High-End-Software, sowohl Video als auch Bild, konnte auf diese Weise zwei Bilder erstellen und bearbeiten. Jede Software, die 3D-Spezialität war, machte es viel einfacher.

Es wurde spezielle Hardware verwendet, um jedes Auge aufzuspalten und anzuzeigen, über 2Eye Viewers http://en.wikipedia.org/wiki/Head-mounted_display oder viele der anderen speziellen, heute verwendeten Augentrennmethoden.
Wie bei LCD-Lichtventil-Austastungen http://en.wikipedia.org/wiki/Alternate-frame_sequencing .

Interlace- oder Interleaved-
NTSC-Videosignale und digitale Videosignale für NTSC (Nordamerika und Japan) verwenden Interlace. Bei Interlace werden in jeder zweiten Zeile 2 verschiedene Bilder verschachtelt. http://en.wikipedia.org/wiki/Interlaced_video

Einige Methoden der 2Eye-3D-Anzeige verwendeten diese Verschachtelung von 2 Bildfeldern und erneut die Eye-Blocker- Methode (HMD- Verfahren). Eine Hardware würde die zwei getrennten Felder nacheinander anzeigen. Dies könnte auch auf einem schnellen Leuchtstoff angezeigt werden verschachteln Sie CRT mit Hilfe von Eyeblocking, aber die Persistenz des CRT-Leuchtstoffs macht es so, dass die Trennung nicht so gut war.

Auch hier ist Interlace-Video nichts Besonderes. Das NTSC-Fernsehen zeigt seit über 50 Jahren ein Interlace-Signal. Sie benutzten das verschachtelte Bild, um die Bewegung mit einer wahrgenommenen Rate von 60 Bildern pro Sekunde anzuzeigen. Die meisten Codecs verfügen über ein Design, bei dem Interlace korrekt bleibt. Wie Sie sehen, ist die Größenänderung nicht so einfach.

Es ist etwas Besonderes, ein Standbild und Fotos und digitale Standbilder zu erstellen. Jedes Fotoprogramm, das leicht ein verschachteltes Bild erstellen könnte, wäre besonders.

Software, die das Verschachteln von Videos in zwei separate Bilder aufteilt und es wieder zusammenfügt, besteht seit über 10 Jahren. Alle High-End-Videoprogramme und Videoprogramme waren in der Lage, ein Interlaced-Signal zu verändern, zu bearbeiten und problemlos zu bearbeiten. Mit Freeware-Software und 2 Kameras können alle oben genannten Methoden auf Ihrem Computer erstellt werden.

Bis jetzt haben wir hier mit Codecs oder Frameraten keine großen Schwierigkeiten. Die Hälfte des gesamten Bildes wird jedem Auge angezeigt, wodurch die effektive Gesamtauflösung reduziert wird. Die Datenrate ist gleich. Die meiste Software war in der Lage, damit zu arbeiten, da Video-Software Interlace bereits eine Notwendigkeit war.

Als nächstes wird es durch das Umblättern von Bildern mit voller Auflösung und hoher Bildrate hochgefahren. http://www.andrewwoods3d.com/3D-PC/

Alternative Frames
Für gerenderte 3D-Bilder und 3D-Spiele, die von der GPU im Stereoskop gerendert werden, können sie einen "versetzten Frame" der gleichen 3D-Szene auf dem Computer rendern und für jedes Auge eine völlig neue Szene aufblenden. Alternative Augenblockierungsmethoden können verwendet werden (oder andere, komplexere Hardware). Die V-Sync-Funktion muss normalerweise eingeschaltet sein, dh der Schaltpunkt. Daher werden alle Verzögerungen durch das V-Sync-Rendering zu den Verzögerungen addiert, wenn zwei Bilder erstellt werden, eines für jedes Auge.

Diese Methode funktioniert gut für die GPU-Rendering und für die Daten, die zu den Monitoren gesendet werden, unkomprimiert vollständige Daten.
Versuchen wir diesen Trick mit den üblichen Videokomprimierungs-Codecs. Jedes zweite Bild in dem Video geht zum anderen Auge. Der leichte Versatz des Bildes bedeutet eine Mehrheit der Pixeländerung. Da die Animationskomprimierung in einem Codec auf den vorherigen Frames aufgebaut ist, hat selbst die vektorbasierte Komprimierung (dieser Pixelblock, der hier verschoben wird) eine sehr schwierige Zeit. Eine völlig andere Komprimierungsmethode, bei der alternative Frames in alternativen Frames erstellt wurden, könnte verwendet werden. Normale Komprimierungsmethoden, bei denen jeder zweite Frame zwischen den Offsets hin und her schlägt, werden überhaupt nicht gut komprimiert.

Beim Side-by-Side- oder Top-Bottom-Stacking dieser Frames werden wirklich nicht zwei völlig verschiedene Frames abwechselnd verwendet. Verwenden Sie stattdessen einen Frame mit doppelter Auflösung (volle Auflösung für jedes Auge). Die Komprimierung der Animation der 2 gestapelten Bilder ist ähnlich wie bei einem Bild mit nur mehr Daten. http://www.best-3dtvs.com/what-is-full-hd-3d-fhd3d/

Was für das Live-Rendern auf dem Computer über die GPU gut ist, wird für einfache Videokomprimierungs-Codecs nicht gut funktionieren.
UN-komprimiertes Video hätte dieses Problem nicht, da das nächste Bild nicht im vorherigen Bild erstellt wird. Ein Beispiel für unkomprimierte 1920x1080x50 + fps erfordert eine Datenrate, die so hoch ist, dass die durchschnittliche Festplatte nicht mithalten kann (Mein Raid kann kaum mit 1 völlig unkomprimiert mit 30 Fps mithalten).

Mit jedem zweiten Full Res-Frame einer Videoanimation, der von Auge 2 Auge abweicht, wird alles um einiges schwieriger und kein Standard-Videomaterial kann dies problemlos lösen.

Bis sich also etwas ändert, gibt es möglicherweise zwei Methoden, die auf einer einzelnen 3D-Computerplattform verwendet werden können, eine, die am besten für ein GPU-Rendering (Spiegeln von Frames) und eine für Videos (beide Bilder in einem Frame) geeignet ist.