Thema:
Genaue HDR-Erklärung inside flat
Autor: Guy
Datum:31.10.18 05:56
Antwort auf:Re:Können wir bitte noch einmal über HDR reden? von Sunspecter

>>Der Sinn von HDR ist, ein Bild darstellen zu können, das näher an der Realität liegt. Dies erreicht man durch höhere Spitzenhelligkeiten (bei Highlights wie Sonne, Scheinwerfern, etc.), einen breiteren Farbraum (also roteres Rot, grüneres Grün, blaueres Blau), sowie mehr und feineren Abstufungen zwischen alledem.
>>Ob einem das immer gefällt, sei, gerade im Dunkeln, dahingestellt.
>
>Sorry, aber das klingt für mich einfach nur nach Übersättigung. Aber klar: Jeder wie er mag.


Das wäre der Fall, wenn man vorhandenes Material (z.B. von der BD, mit REC.709 Farbraum) auf den größeren DCI-Farbraum spreizen würde, was bei korrekter Einstellung aber nicht der Fall ist.
Kinofilme sind aber seit Langem (schon seit Celluloid-Zeiten) schon im DCI-Farbraum gemastert worden und mussten bisher für zu Hause auf das kleinere REC.709 herunterkonvertiert werden.

Das kann man sich mit HDR nun sparen, das sogar Farbräume bis REC.2020 unterstützt (welchen aber noch keine Bildschirmtechnologie, abgesehen von den Laser-Projektoren in den Dolby Cinemas, darszustellen imstande ist). REC.2020 wird bei Heim-HDR zwar immer als Containerfarbraum genutzt, enthält aktuell aber nur den DCI-Farbraum, was auch daran liegt, dass es bisher nicht einen Film in REC.2020 gibt (bis auf eine Szene in Disney's "Inside Out").
In größeren Farbräumen machen dann natürlich auch feinere Abstufungen Sinn.
Wo REC.709 nur 8 Bit Helligkeitstiefe hat (also 256 Graustufen), hat HDR10 10 Bit (1024 Graustufen) und Dolby Vision sogar 12 Bit (4096 Graustufen).
Jeder hat auf BD schonmal Szenen (z.B. Sonnenuntergänge) gesehen, in denen in Farbverläufen sichtbare Abstufungen ("Banding") erkennbar waren. Dies gehört allerspätestens mit Dolby Vision (i.d.R. aber schon mit HDR10) der Vergangenheit an. Auch im Kino setzt man schon lange auf 12 Bit.
Gerade günstige HDR-TVs besitzen aber meistens lediglich 8-Bit-Panels, was dann natürlich toll ist...

Eigentlich hätte es (sogar nach der Meinung von Video-Papst Joe Kane) genügt, Farbraum und Bittiefe der DCI-Norm (DCI-Farbraum plus 12 Bit) für zu Hause zu übernehmen - also quasi 12 Bit SDR.
Aber nein, man wollte auch die Spitzenhelligkeit erhöhen, damit einen die Sonne "blenden" kann, wie im richtigen Leben.
Daraus resultierte dann HDR, mit spezifizierten Spitzenhelligkeiten von bis zu 10.000 Nits (SDR 100 Nits) - wohlgemerkt für Spitzlichter, das Bild an sich, z.B. eine Aufnahme in einem Zimmer, ist dabei gar nicht zwangsläufig heller, manchmal sogar dunkler.
Andererseits kann man nun auch hellere (also leuchtstärkere) Farben darstellen.
Es gab ein Video, wo jemand schweißt und dabei gelbe Handschuhe trägt. In SDR waren der Schweißblitz und die Handschuhe weiß, in HDR (auf einem entspr. Display) waren die Handschuhe klar als gelb zu erkennen und trotzdem strahlend hell vom Schweißblitz beleuchtet.
Somit hat all das schon irgendwie eine Daseinsberechtigung, wenn man die Realität möglichst originalgetreu abbilden will.
Nun wurden all diese Spezifikationen allerdings getroffen, lange bevor es überhaupt Displays gab, die dies auch nur ansatzweise darstellen konnten. Selbst bis heute gibt es in der Praxis kein Display, das, korrekt eingestellt oder gar kalibriert, die 4000 Nits schafft - von 10.000 ganz zu schweigen. Knapp über 2000 ist aktuell selbst bei den besten Displays Schluss.
Ist der Inhalt mit höherer Spitzenhelligkeit gemastert, so wird alles darüber entweder abgeschnitten ("Clipping") oder langsam abgeschwächt ("Roll-Off"), hängt vom Modell ab.
Dasselbe passiert beim Farbraum (DCI), den bislang ebenfalls kein Heimdisplay, korrekt kalibriert, wirklich zu 100% abbilden kann.
Für diese internen Anpassungen an die Fähigkeiten des jeweiligen Displays ist ein Prozess namens Tone-Mapping verantwortlich, den jedes Display intern vollführt.
Böse Zungen behaupten, solange dies nötig ist (weil die Displays weniger können, als sie eigentlich können müssten, um die Inhalte 1:1 darstellen zu können) kann man sowieso nur erahnen, wie der entsprechende HDR-Inhalt wirklich aussehen soll, was es natürlich auch Reviewern erschwert, wirklich objektiv Inhalte zu bewerten.
In den Mastering-Studios der Filmfirmen stehen sündhaft teure Studiomonitore (z.B. der Dolby Pulsar, kostet 5- bis 6-stellig), die die Anforderungen erfüllen.
Für zu Hause wird das noch dauern (was nicht zuletzt mit Ernergieeffizienzbestimmungen zusammenhängt).

Unterm Strich konnte man mit SDR ungefähr 25-30% des Licht- und Farbspektrums der „richtigen Welt“ abbilden.
Mit HDR will man in der Spitze (mit 10.000 Nits und REC.2020 - also in der Zukunft) bis zu 80% schaffen. Aktuell liegt man mit DCI und max. 2000 Nits irgendwo dazwischen.
Das als kleiner Ausflug in die HDR-Welt. :-)


< antworten >