Thema: |
|
||
Autor: | _bla_ | ||
Datum: | 13.10.20 14:57 | ||
Antwort auf: | Re:Tearing von suicuique | ||
>und eine Überblendung von altem auf neuen Bildpuffer berechnen lassen. Evt. ginge das auch mit sehr viel weniger Hardwaresupport: In dem Moment, wo das Rendern eines Frames fertig ist, kann man schauen, in welcher Zeile sich die Ausgabe gerade befindet, könnte dann schnell einen weichen Übergang an passender Stelle berechnen und dann einigen Zeilen umschalten. > >Ich habe von so einer Art Filter wie Du es beschreibst noch nie gehört oder gelesen. >Occams Razers legt mir die Vermutung nahe das liegt vor allem daran, dass es wohl doch nicht so simpel ist :) Gut möglich. Wäre sehr interessant zu wissen, ob jemand mal mit sowas rumexperimentiert hat und woran es gescheitert ist. >Was ist bei schnellen Drehungen? Wechselnden Lichtverhältnissen? Wie sieht da ein "sanfter Übergang" aus? Die "zerreissende Stelle" einfach zu blurren wäre sicherlich kein Problem. Ich vermute aber dass es das Tearing in der Wahrnehmung nur marginal, wenn überhaupt, verbessern würde. Ich vermute halt das das schon oft einen deutlichen Unterschied machen würde. Das Tearing ist meistens kein stabiles Bilddetail, welches viele Frames hintereinander an der gleichen oder fast gleichen Stelle sichtbar ist, sondern taucht nur kurz mal an einer Stelle auf und verschwindet dann ganz wieder oder taucht an einer andere Stelle wieder auf. Eine lange Tearingkante, die sich über die ganze Bildbreite zieht, fällt auch auf, wenn sie nur für ein Frame sichtbar ist, aber ein bisschen mehr Blur in einem Bereich? Oder was ich mir auch vorstellen kann, ist es nach natürlichen Bildkanten zu suchen und dann dort umzuschalten, dann fällt die Tearingkante auf eine Objektkante und fällt dadurch nicht mehr auf. Und wenn es innerhalb des Tearingbereichs kaum natürlichen Kanten gibt, funktioniert Blur wahrscheinlich auch ganz gut. >Und Performance (wie gering auch immer) würde es auch noch kosten, da "umsonst" ein Konzept ist, das es in der GPU Welt nicht wirklich gibt. Ausser in Marketing Phrasen ;) Naja. Völlig umsonst sicher nicht, aber das Ganze hätte praktisch keinerlei Auswirkungen auf die Herstellungskosten der GPU. Besonders die Variante, bei der man die Shader zum Berechenen des Übergangsbereichs nutzt, braucht nahezu keinen Hardwaresupport. Gleichzeitig könnte man sowas auch noch etwas aufbohren um grundsätzlich die Möglichkeit zu schaffen, vor der Ausgabe auf dem Bild nochmal rumzurechnen, und könnte dann bspw. Postprocessing-Filter machen, ohne das Bild zwischendurch wegschreiben zu müssen oder bspw. auch für Asynchronous reprojection mit besonders geringer Latenz bei VR. |
|||
< antworten > | |||