Thema:
Re:Echtes Hdmi 2.1 gibt es noch nicht... flat
Autor: makaimura
Datum:10.06.20 13:43
Antwort auf:Re:Echtes Hdmi 2.1 gibt es noch nicht... von Schlomo

>4k 120Hz 12 Bit, 4:4:4.
>Nein, angeblich auch praktisch bei 10-Bit-Panels.
>Ich glaube, in diesem Video wurde das erwähnt: [https://www.youtube.com/watch?v=voePq29-U6M].


im dem Video bemüht er aber nur konservierte Inhalte, also solche in 4:2:0. Dolby Vision ist 12bit. HDR10 ist 10-bit. Es geht also um die Kompensierung der Viertelung der Farbauflösung durch mehr Gradationsstufen. Das ist eine legitime Argumentation, hat aber praktisch nichts mit den Unterschieden zw. 10 und 12-bit bei 4:4:4 zu tun. Letztlich geht es im dem Video ja nur darum, dass ein Runterrechnen im Display effektiver ist als eines im Player. Keine der gezeigten Situationen kratzt aber an Deinen genannten Bandbreitenlimits - geht ja mit 4:2:0 Quellen auch gar nicht. Was im Video letztlich demonstriert wird, ist der letzte Processing Schritt (die YCbCr 4:2:0 nach RGB 444 Wandlung für das Panel).

Nimm z.b. einen Bildausschnitt mit 1024x1024 Pixeln und einem Farbverlauf. Bei einem 4:4:4 10bit Signal kann es darin kein Banding geben (da für jede Gradation ja 1024 Stufen (2^10) zur Verfügung stehen. Jetzt hast Du halt das Problem, dass bei demselben Ausschnitt auf z.b. einer 4K BD nur noch 256-512 Farbabstufungen übrig bleiben (auch in Dolby Vision 12-bit), weil die Farbkanäle halt nur mit halber oder geviertelter Auflösung gespeichert sind. Da wird dem Display so oder so viel Verantwortung bei der Hochrechnung zugetragen. An einen praxisrelevanten Unterschied bei 4:4:4 zwischen 10 und 12-bit glaube ich deshalb aber noch lange nicht.


< antworten >