Unterschied zwischen dem Downscaling von 1080p auf 720p in Echtzeit und dem Downscaling während der Codierung?
Angenommen, ein unkomprimiertes Video mit hoher Qualität wird zweimal neu codiert, mit nahezu identischen Codierungseinstellungen bei einer relativ niedrigen Bitrate von 4 MBit / s, jedoch mit unterschiedlichen Auflösungen, zuerst bei 1080p und dann bei 720p.
Wir haben also jetzt zwei Videos: Eines ist 1080p und das andere 720p. Beide haben identische Bitraten.
Ich weiß, dass 4 MBit / s als niedrige Bitrate für 1080p gilt und das Video auf einem Full-HD-Display aufgrund der Komprimierungsartefakte schlecht aussieht.
Bei der Wiedergabe auf einem 720p- Display wird das 1080p-Video jedoch offensichtlich auf 720p herunterskaliert.
Meine Frage ist: Wird das 1080p-Video (das während der Wiedergabe in Echtzeit auf 720p herabgesetzt wird) auf dem 720p-Display so gut aussehen wie das 720p-Video (das die gleiche Bitrate hat) ? Oder wird das 720p-Video (das vom Encoder von 1080p auf 720p herunterskaliert wurde) besser aussehen? Oder sehen beide gleich aus?
Ich würde einige Tests durchführen, um das selbst zu sehen, aber mein System ist nicht stark genug für die 1080p-Kodierung. Ich suche nach Expertenmeinungen dazu.
0 Antworten auf die Frage
Verwandte Probleme
-
10
Wie komprimiere ich eine riesige Menge von PNG-Bildern?
-
4
Wie kann ich die Größe eines riesigen MP4-Videos reduzieren?
-
21
Komprimieren mit RAR vs ZIP
-
2
Wie bearbeite ich MP4 / H264-Videodateien in Sony Vegas Platinum 6?
-
9
Höchste Komprimierung für Dateien (für Webübertragung)?
-
2
Wie verwende ich meine GPU, um die Videocodierung zu beschleunigen?
-
1
Video für Android mit Adobe Media Encoder konvertieren
-
10
Beste PNG-Komprimierungssoftware?
-
4
Verbinden Sie zwei h.264-Filmdateien und fügen Sie Kapitel zusammen.
-
5
Gibt es eine Möglichkeit, die Standard-7-Zip-Symbole zu ersetzen?