Thema:
Re:Smartphones mit HDR-Bildschirm und 12-Bit-Fotos? flat
Autor: _bla_
Datum:14.11.18 20:08
Antwort auf:Smartphones mit HDR-Bildschirm und 12-Bit-Fotos? von Sachiel

>Können da welche Fotos mit einer Farbtiefe von 12-Bit oder mehr schießen? Oder ist das bei RAWs ohnehin schon der Fall, auch wenn ein Smartphone keinen HDR-fähigen Screen besitzt?
>Sollte die Frage keinen Sinn ergeben: Ich versuche gerade, da durchzusteigen.


Das Ganze ist etwas kompliziert. 12-bit bedeutet erst mal nur das pro Farbkanal 12-bit zur Verfügung stehen, so das es maximal 4096 unterschiedliche Helligkeiten pro Farbkanal gibt. Bei Bildsensoren hast du normalerweise eine lineare Abhängigkeit von physikalischer Helligkeit. Wenn der Bildsensor also auf einem Pixel bspw. 2000 misst, dann bedeutet das halb so viele Lichtteilchen wie wenn der Sensor einen Wert von 4000 gemessen hat. Die menschliche Wahrnehmung funktioniert aber anders. Doppelte so viele Lichtteilchen, das scheint dem Menschen nicht doppelt so hell, sondern nur etwas heller. Wenn du bspw. mit einer Taschenlampe in eine dunkle Ecke leuchtest, dann macht das einen großen Unterschied, aber wenn du mit der gleichen Taschenlampe etwas zusätzlich beleuchtest, was ohnehin in der prallen Sonne ist, dann kannst du kaum einen Unterschied feststellen, obwohl die zusätzliche Menge an Lichtteilchen in beiden Fällen identisch ist.

Wenn du jetzt Bilder in einer normalen Datei speicherst, werden daher die Werte anders verteilt, um eher der menschlichen Wahrnehmung zu entsprechen. Für dunkle Bereiche werden mehr Werte verwendet, während bei hellen Bereichen größere Abstände zwischen den Werten gelassen werden. Das nennt sich dann "Transferkurve" oder "Gammakorrektur". Da der Bildsensor erstmal Rohdaten liefert, braucht er einige Bits mehr für den gleichen Bildeindruck wie ein Bild mit Gammakorrektur. Aktuelle Bildsensoren haben daher intern in der Regel mindestens 12-bit, häufig sogar 14-bits. Das steht im RAW dann auch so drin, normalerweise bezeichnet man es trotzdem nicht als HDR Bild, weil die Unterschiede zwischen geringster und höchstmöglicher Helligkeit trotzdem nicht besonders groß sind, weil eben keine Gammakorrektur zum Einsatz kommt.

Bei HDR für Displays bezieht sich das Ganze in der Regel auf Bits mit Gammakorrektur. Da gibt es dann extreme Unterschiede in der Helligkeit. Das bekommt der Bildsensor mit einer Aufnahme dann in der Regel nicht mehr hin, sondern es werden mehrere Aufnahmen mit unterschiedlichen Belichtungszeiten gemacht und zusammengerechnet. Diese Zusammenrechnen unterschiedlicher Aufnahmen kann fast jedes halbwegs aktuelle Smartphone. Meistens bekommt man aber trotzdem nur ein JPEG mit 8-bit raus. Vor dem Speichern wird dann ein sogenanntes Tonemapping durchgeführt, welches dafür sorgt, das sich Details in den hellen und dunkleren Bereichen leichter erkennen lassen. Das ergibt dann die typischen HDR Fotos, für die man kein HDR Display zum betrachten braucht, sondern was sich dort primär auf die Aufnahmetechnik bezieht.


< antworten >