membran  (E-Mail nur eingeloggt Sichtbar) am 18.04.2017 10:19 Uhr
Thema: Re:Scorpio mit FreeSync und HDMI 2.1 (VRR) Support Antwort auf: Re:Scorpio mit FreeSync und HDMI 2.1 (VRR) Support von Seriös
>Klar, das war eher als Frage an Gsync User und Konsorten gedacht.  Membran hat ja vor einiger Zeit gesagt dass er mit einer ähnlichen(?) Technik bei VR den Unterschied zwischen 45Hz und 90Hz nichtmehr eindeutig sehen konnte.

Da du mich ja namentlich erwähnst - kann ich leider so nicht unterschreiben. Das kann man nicht so einfach miteinander vergleichen, ohne jetzt zu sehr ins Detail gehen zu wollen. VR Displays und die Art und Weise, wie die vom Treiber befeuert werden (zudem unterscheidet sich noch die Zwischenbildberechnung bei OpenVR/Vive und Rift voneinander), und normale Displays, Vsync (+Vsync Lag...), Gsync, das sind verschiedene paar Schuhe.

Zudem ist meine alte Aussage zum 45/90 Space- und Timewarp Unterschied stark abhängig von der Implementierung und der jeweiligen Spiel-Engine. Da schlagen sich einige Spiele deutlich besser als andere, bei dem dauerhafter oder selbst kurzer Timewarp sofort unangenehm auffällt. Dirt Rally ist da ein seltsamer Sonderfall - ist am normalen TV Bildschirm ein Performancemonster und rennt auch auf älteren Kisten astrein, auf aktuelleren PCs in Ultra-60fps kein Problem, mutiert aber im VR (Stereo-3D Modus) zu einer ziemlichen Krücke, die nach jedem bißchen Saft dürstet und selbst auf High End Kisten lieber im Low-Medium Bereich eingestellt werden sollte - und selbst dann sind die 90fps überraschend schwer zu halten. Allein die popelig-hässlichen Grasbüschel-Pappaufsteller, sobald sie aktiviert sind, lassen die Framerate selbst auf "low" krass einbrechen. Ich hatte da immer das Gefühl, weil Dirt Rally "VR-Retrofitted" ist, die Engine mit dem stereokopischen Rendering über Gebühr Probleme hatte. Gleichzeitig aber verträgt sie sich sehr gut mit dem Timewarp-45hz Modus. Sicherlich ist es in nativen 90hz noch einen Tick geiler, aber gerade Dirt Rally kann ich durchgehend in 45hz Timewarp zocken, ohne dass mir dieser Umstand permanent vor Augen geführt wird. Das ist bei anderen Spielen leider nicht so. Und es gilt eh nur für die VR Darstellung, mit dem Rift (das Vive macht nochmal was anderes), was iirc eh nochmal anders als "normale" Bildschirme vom Grafiktreiber angesprochen wird - und für dessen Magic Timewarping die Renderpipeline umgelegt wurde, da haben MS, Nvidia und Oculus zusammen dran gewerkelt, damit das überhaupt funktionierte. Das Headset enthält ja immer den aktuellen (korrekten!) und kompletten (!) Frame, quasi verzögerungsfrei (<1ms), auch wenn der Frame gar nicht wurde. Zu erklären, warum das so ist, würde hier zu weit führen, das kann man selber schnell finden und nachlesen.

Da ich meinen Zock-PC nur am HDTV betrieben habe und keinen Bock auf Monitorgaming habe, bin ich leider persönlich noch nicht mit native 144hz goodness oder gar Gsync/Freesync in Kontakt gekommen (ein wenig Selbstschutz, damit ich nicht am Monitor hockend ende!). Ich nehme aber mal an, der Threadname im GAF (Gsync - the god-level gaming upgrade) kommt nicht von ungefähr. Du darfst halt nicht vergessen, wenn man Vsync aktiviert hat (und das sollte man, wenn man kein Bock auf Tearing hat), handelt man sich erstmal vom Start weg durch die Art und Weise der Funktionsweise von Vsync einen Frame Input Lag ein (zusätzlich zum Input Lag des Displays selber und anderen, kleineren Faktoren). Wenn die native Bildwiederholrate des Displays nicht gehalten werden kann, geht es (abhängig von OpenGL Triple Buffering oder DirectX Render Ahead Queue, welche noch mehr Input Lag produziert...) auf die Hälfte oder 2/3 (Open GL Triple Buffering, also quasi kaum ein Spiel) davon zurück. Da werden Frames mit 16.6ms Frame-Time mit Frames der doppelten Frametime gemischt (warten auf den nächsten V-Blank des Monitors), sobald ein Frame (CPU+GPU) einen Hauch länger als 16.6ms braucht, muss er bis zum nächsten Durchlauf warten und ist damit mindestens doppelt so lang. Ein Framerate Tool wirft einem dann 55fps raus (weil es immer einen Durchschnitt über die letzten X Sekunden nimmt...), aber das Spiel stottert sich einen ab, weil in unregelmäßigen Abständen manche Frames doppelt so lange angezeigt werden wie andere. G-Sync eliminiert nicht nur das in Vsync inhärente Input Lag, sondern auch gleichzeitig Tearing und das Warten auf den V-Blank des Displays. Es gibt keinen "fixen Turnus" mehr einzuhalten, d.h. wenn ein Frame in 18ms fertig ist, dann wird er sofort angezeigt und muss nicht künstlich noch weitere 15ms warten, bis er "dran" ist (oder gleich durch den nächsten berechneten Frame ersetzt wird). Frame-Time Varianzen werden also nicht so weit "gestreckt", dass es einem unangenehm auffällt, man sieht in einer Lastsituation z.b. "echte" 55 frames pro Sekunde mit einer durchschnittlichen Frametime von etwa 18ms, nicht einen Haufen von "16,6ms"-Frames, in die eine Prise Frames mit 33.3ms Anzeigedauer (Framewiederholung) reingeworfen wurden, das dürfte deutlich flüssiger wirken, weil die Brüche nicht doppelt so lang sind. So wie ich das verstanden habe, wirkt G-Sync ab 45fps schon ziemlich flüssig, aber trotzdem zielt man lieber auf höhere Framerates mit einem 60fps Target (oder 144er, höhö) ab. Wenn es dann mal auf den niedrigeren 50er-Bereich einbricht, fällt einem das aber wohl kaum auf, zumindest nicht so derbe wie beim V-Sync Fallback auf 30fps.

Es gibt ja noch andere Vsync Einstellungen, nur leider funzen bei meinem TV leider nicht so toll, Adaptive z.B. (Vsync wird aktiviert, wenn genügend Luft zum Rendern ist, und deaktiviert, wenn die 16.6ms nicht mehr gehalten werden können) hat doch unterm Strich fieses Dauer-Tearing, auch wenn es eigentlich Strich 60 Bilder pro Sekunde sind. Das klappt vielleicht auf Monitoren besser oder es liegt an meinem TV, keine Ahnung. Um die Verwirrung komplett zu machen, bezeichnet "Adaptive Vsync" bei Nvidia etwas anderes (nämlich das dynamische De- und Aktiveiren von Vsync) als das sehr ähnlich benannte "Adaptive Sync", was der AMD und VESA Standard für FreeSync ist.

Alles ohne Gewähr, ich habe bestimmt ein paar Dinge falsch beschrieben.

Auf jeden Fall ist mein nächster TV-Kauf erstmal verschoben, bis HDMI 2.1 Geräte verfügbar sind, die VRR bieten. Und da offensichtlich auch die GPU den Standard unterstützen muss, ist das noch ein Grund mehr, die 1080 Ti auszulassen. Meine 980 Ti tut das, was sie soll, nämlich eigentlich noch ziemlich, ziemlich gut. Und wenn ich mir die Monster-Ti holen sollte, würde der gesamte Rechner miterneuert, samt fucking Windows Reinstall und da habe ich wenig bis kein Bock drauf. Das muss sich schon lohnen, also Warten auf die neuen TVs, die neuen VR Headsets; derweil werden CPUs billiger oder besser. Es wird zudem eh interessant, ob Nvidia HDMI 2.1 bei ihren nächsten / übernächsten Karten unterstützen wird, das VRR steht ja in direkter Konkurrenz zu deren Gsync-Geschäft.

***Diese Nachricht wurde von membran am 18.04.2017 10:36 bearbeitet.***
< Auf diese Nachricht antworten >