Thema:
Re:Keine Revolution flat
Autor: X1 Two (deaktiviert)
Datum:01.05.19 13:58
Antwort auf:Re:Keine Revolution von ChRoM

>>Vermutlich scheiterts immer noch daras das Eye TRacking nicht mit Brillen funktioniert.
>
>Könnte man das Sehschärfenproblem eigentlich softwareseitig lösen? Quasi das Bild unscharf redern, passend zur jeweiligen Seeschärfe. Müsste das nicht theoretisch funktinieren?


Hehe, nein. Du siehst ja pauschal ab einer gewissen Distanz nicht mehr scharf. Das Ganze hat aber auch nichts damit zu tun, warum es kein Eye Tracking in VR-Brillen gibt. Das ist schlicht derzeit ein unlösbares Problem, weil die Daten nicht sauber genug sind, um es in Echtzeit zu nutzen und die Daten nicht schnell genug gesäubert werden können, um es in Echtzeit zu nutzen. Sakkaden sind ein bisher unlösbares Hindernis für die 2 oder 3 ms, die du bei VR hast, bevor das Bild gerendert werden muss, um dann bei 11 ms (90 fps) zu landen. Das wird auch in absehbarer Zeit nicht zu lösen sein, einfach weil Eye Tracking-Daten aufgrund der Vielzahl an spontanen Augenbewegungen (die man selber gar nicht wahrnimmt) immer unsauber sein werden. Momentan würde eine Sakkade als bewusste Augenposition wahrgenommen, nach den 8 ms ist das Auge aber schon längst auf einen ganz anderen Punkt fixiert, während du ihm das Bild schickst, wo es vor 8 ms war. Das Ergebnis ist ein völlig falsches Bild mit Unschärfen, wo keine sein sollten. Dort, wo es nicht so sehr auf die Framerate ankommt (z.B. Augmented Reality, weil dein Gleichgewichtssinn da immer noch auf die realen Reize reagiert), ist foveated rendering noch eher denkbar. Aber auch dort wird es wohl in erster Linie genutzt werden, um über einen Zeitraum von 75 bis 100 ms festzustellen, wo der Nutzer gerade hinschauen will, und dann entsprechend dort einen Cursor zu platzieren bzw. was zu markieren. Das wirkt dann immer noch fix genug, um mit den Augen Dinge auswählen zu können, aber das ist natürlich weit, weit von den 3 ms entfernt, in denen du diese Entscheidung bei VR treffen musst.

Foveated rendering in VR ist noch weit weg. Basierend auf den Fortschritten von non-VR-Eye Tracking in den letzten fünf Jahren würde ich locker von 20 Jahren ausgehen, bis wir Hardware haben, die das in wenigen Millisekunden sauber erkennen kann. Da hilft dir auch kein Machine Learning-Algorithmus, weil Augenbewegungen rein zufällig passieren, es gibt kein Muster.


Antworten nicht möglich, siehe Info neben Nickname