Aktive 3D-Monitore basieren auf dem Prinzip der zeitlichen Multiplexierung von Bildpaaren für das linke und rechte Auge. Diese Methode nutzt spezielle elektronische Brillen – sogenannte aktive Shutterbrillen –, die durch integrierte Elektronik und Energieversorgung abwechselnd jeweils ein Auge abdunkeln, während der Monitor synchronisierte stereoskopische Bilder zeigt. Der zeitliche Ablauf dieser Bilddarstellung ist präzise koordiniert: Während der Monitor ein Bild für das rechte Auge darstellt, bleibt das linke Brillenglas undurchsichtig, und umgekehrt. In Phasen dazwischen werden beide Gläser gleichzeitig abgedunkelt, um während des Neuladens eines neuen Bildes keine Artefakte zu erzeugen.

Diese Synchronisation erfolgt in typischen Systemen bei einem Δt von 4,16 Millisekunden, was einer Bildwiederholfrequenz von 120 Hz entspricht – 60 Bilder pro Sekunde für jedes Auge. Für noch schnellere Systeme wie Monitore mit 144 Hz oder gar 360 Hz erfordert dies eine entsprechend schnellere Schaltzeit der Brillengläser – teils unter 1,4 Millisekunden. Gleichzeitig muss die GPU zwei leicht versetzte Bilder berechnen und ausgeben, wobei eine Framerate von mindestens 60 fps pro Auge erforderlich ist. Diese Anforderungen an Rechenleistung sind nicht trivial, da die Komplexität der dargestellten Szene unmittelbar Einfluss auf die Ausgaberate hat. Kommt es hier zu einer Diskrepanz zwischen der Berechnung der GPU und dem fixen Takt des Monitors, kann es zu Tearing kommen – also einer störenden Bildüberlappung.

Um diesem Problem entgegenzuwirken, hat NVIDIA die G-Sync-Technologie entwickelt. Sie erlaubt kompatiblen Monitoren, ihre Bildwiederholfrequenz dynamisch an die der GPU anzupassen. Allerdings bleibt offen, ob diese Technologie vollständig mit Shutterbrillen kompatibel ist, da für ein konsistentes stereoskopisches Erlebnis nicht nur Monitor und GPU, sondern auch Brille und Monitor exakt synchronisiert sein müssen.

Diese letzte Synchronisation erfolgt über einen Infrarotsender, der Signale an den integrierten Empfänger in der aktiven Brille überträgt. Dieser steuert dann die Flüssigkristall-Shutter in den Gläsern und sorgt dafür, dass jeweils das richtige Auge das aktuelle Bild sieht. Für eine störungsfreie Funktion ist dabei eine klare Sichtlinie zwischen Brille und Monitor nötig, wobei der Nutzer sich in einem Abstand von 0,5 bis 4,5 Metern aufhalten muss. Das Design dieser Brillen – etwa die NVIDIA 3D Vision 2 – wurde auf maximalen Komfort optimiert: größere Linsen, um über normale Brillen getragen zu werden, auswechselbare Nasenpolster, eine Betriebsdauer von bis zu 60 Stunden durch Akkubetrieb und ein Gewicht von nur 47 Gramm.

Ein Nachteil dieses Verfahrens liegt in der Transmissionseffizienz: Aufgrund der Lichtblockade durch die Shutter gelangt nur 30–50 % der ursprünglichen Displayhelligkeit zum Auge. Hersteller haben daher die Leuchtstärke ihrer Displays erhöht, um diesen Verlust zu kompensieren. Weiterführende Forschungen zeigen, dass durch polarisationsabhängige Grating-Strukturen innerhalb der Flüssigkristallschichten eine Transmission von bis zu 84 % erreicht werden kann, was einen bedeutenden Fortschritt für die Bildqualität darstellt.

Dennoch bleibt eine grundlegende Einschränkung: Die durch die Shutterbrillen erzeugte 3D-Ansicht verändert sich nicht mit der Bewegung des Kopfes. Anders als bei Head-Mounted Displays (HMDs), bei denen das Bild der Blickrichtung dynamisch folgt, bleibt das Bild auf dem Bildschirm fixiert. Um dieses Problem zu lösen, wurden Erweiterungssysteme entwickelt, wie sie beispielsweise von Advanced Realtime Tracking GmbH stammen. Diese Systeme nutzen passive Marker auf der Brille sowie externe Kameras zur Erfassung der Kopfposition. Daraus kann in Echtzeit die Blickrichtung berechnet und das Bild entsprechend angepasst werden. Dies erlaubt eine rudimentäre, aber effektive Implementierung von Head-Tracking in Verbindung mit aktiven Brillen.

In der immersiven Wahrnehmung ergibt sich dennoch ein qualitativer Unterschied. Während HMDs durch das vollständige Ausblenden der realen Umgebung ein vollständiges Eintauchen in die virtuelle Welt ermöglichen, bieten aktive 3D-Brillen eher ein „Fenster“-Erlebnis: Die virtuelle Szene erscheint hinter dem Display, vergleichbar mit dem Blick durch ein reales Fenster. Damit entsteht beim Nutzer die Erwartung, dass sich die Szene mit Kopfbewegungen verändert – ein Effekt, der ohne Tracking enttäuscht werden könnte. Studien zeigen, dass es sinnvoll ist, die Reaktion des Bildes auf Kopfbewegungen sogar leicht zu übertreiben, um das begrenzte Sichtfeld eines Monitors (etwa 37° von 180°) besser auszugleichen.

Wichtig ist es zu verstehen, dass die immersive Qualität aktiver 3D-Systeme nicht nur durch die Bildauflösung oder die Bildfrequenz bestimmt wird, sondern durch das komplexe Zusammenspiel aus Synchronisation, Lichttransmission, Head-Tracking, Helligkeit, Nutzerkomfort und der Qualität der dargestellten Inhalte. Ebenso ist entscheidend, ob das System in eine Anwendung eingebettet ist, die dynamische Interaktion erl

Wie die geteilte Rendering-Technologie die Performance von mobilen Geräten verbessert

Ein innovativer Ansatz zur Verbesserung der Rendering-Performance auf mobilen Geräten wurde an der University of Minnesota entwickelt, der das Konzept des „split rendering“ nutzt. Anstatt das gesamte Bild mit einer hohen Auflösung von 2400×1080 Pixeln zu rendern, wird hier nur ein zentraler Teil des Bildes vom Host-Computer (einem Server mit einer NVIDIA GTX 1080-Grafikkarte) mit einer hohen Auflösung dargestellt. Die Ränder des Bildes werden vom mobilen Gerät selbst gerendert. In diesem Fall handelt es sich um ein OnePlus 8-Smartphone, das mit einem Snapdragon 865-Prozessor und einer Andreno 650 GPU ausgestattet ist. Um die Bildwiederholraten zu optimieren, wurde zudem ein foveated Rendering (FFR) eingesetzt, eine Technik, die bereits in Kapitel 3 beschrieben wurde.

Im Vergleich zu herkömmlichem Rendering arbeitet dieses Split-Rendering-System mit einer parallelen und asynchronen Bearbeitung durch den Server und das mobile Gerät. Der Prozess beginnt damit, dass das mobile Gerät Daten zur Bewegungserfassung (6 Freiheitsgrade) an den Server sendet und gleichzeitig beginnt, die Randbereiche des Bildes in niedrigerer Auflösung zu rendern. Sobald der Server die (nicht kodierten) Tracking-Daten erhält, beginnt er mit dem Rendering des zentralen Teils des Bildes in hoher Auflösung. Diese Daten werden dann kabellos an das Smartphone übermittelt, während das mobile Gerät parallel dazu seine Bildteile rendert. Durch die geringere Rechenleistung des Smartphones wird hier ausreichend Zeit für die Datenübertragung vom Server benötigt, was zu einer Reduzierung der Gesamtzeit für das Rendern führt.

Im Vergleich zum traditionellen Rendering, bei dem das gesamte Bild nur auf dem mobilen Gerät gerendert wird, konnte beim Split-Rendering eine signifikante Verbesserung der Leistung erzielt werden. In Tests zeigte sich, dass die Frame-Zeit bei einer alleinigen Darstellung auf dem OnePlus 8 bei 32,2 Millisekunden lag. Beim Split-Rendering mit einem Server, der das zentrale Bild mit einer Auflösung von 512×360 Pixeln pro Auge rendert, während das Smartphone den Rand mit einer Auflösung von 1440×648 Pixeln bearbeitet, sank die Frame-Zeit auf 26,56 Millisekunden. Diese Leistungssteigerung von etwa 21% resultiert in einer deutlichen Erhöhung der Bildwiederholrate.

Die Technologie des Split-Renderings hat sich besonders in der mobilen VR-Anwendung als nützlich erwiesen, da sie die Verarbeitungslast zwischen Server und mobilen Geräten verteilt. Diese Aufteilung sorgt nicht nur für eine höhere Effizienz, sondern verringert auch die Anforderungen an die Hardware des mobilen Geräts, was zu einer besseren Nutzererfahrung führt.

Ein weiteres interessantes Beispiel für fortschrittliches Rendering im professionellen Bereich ist die Nutzung von hochleistungsfähigen Grafikkarten in Workstations. Besonders bei grafikintensiven Anwendungen wie 3D-Modellierung, Animation oder CAD-Software kommen professionelle Karten wie die NVIDIA RTX A6000 zum Einsatz. Diese Karten bieten mit ihren 48 GB GDDR6-Speicher und 18.176 CUDA-Kernen deutlich mehr Rechenleistung und Speicher als Consumer-Grafikkarten, was sie ideal für speicherintensive Simulationen und große Rendering-Projekte macht.

Die Kommunikation zwischen diesen professionellen Grafikkarten erfolgt über NVLink, ein bidirektionales Bus-System, das eine schnelle und effiziente Datenübertragung zwischen den GPUs ermöglicht. Während die PCIe-Verbindungen der CPU mit den Grafikkarten deutlich langsamer sind, bietet NVLink eine wesentlich höhere Bandbreite und ermöglicht es den GPUs, auf den Speicher der jeweils anderen GPU zuzugreifen. Dies ist besonders wichtig, wenn mehrere GPUs in einer Workstation zusammenarbeiten, um komplexe Szenen zu rendern.

Die Synchronisation zwischen mehreren GPUs in einer Workstation wird durch NVLink und speziell durch die Synchronisationsports wie „Sync II“ ermöglicht. Diese Technologien sorgen dafür, dass die gerenderten Szenen auf den verschiedenen Displays in einem Tiled-Display-Setup perfekt abgestimmt sind. Diese Synchronisation ist besonders wichtig, wenn VR-Systeme mit haptischen Feedback-Technologien kombiniert werden, um eine nahtlose und realistische Benutzererfahrung zu gewährleisten.

Die Leistung solcher professionellen Rendering-Pipelines und ihre Synchronisation ist entscheidend, um den hohen Anforderungen von Anwendungen gerecht zu werden, die nicht nur hohe Auflösungen, sondern auch schnelle Reaktionszeiten erfordern. In diesen Szenarien ist die Zusammenarbeit mehrerer GPUs und deren präzise Synchronisation von zentraler Bedeutung für den Erfolg des gesamten Systems.

Ein besonders interessanter Aspekt für den Leser, der die Leistungsfähigkeit solcher Rendering-Technologien versteht, ist die Rolle von Asynchronität und Parallelität in modernen Rendering-Architekturen. Diese Techniken ermöglichen eine weitaus flexiblere und schnellere Verarbeitung von Daten und Rendering-Aufgaben. Darüber hinaus ist es wichtig zu erkennen, dass die Effizienz von Rendering-Prozessen nicht nur von der Rechenleistung der Hardware abhängt, sondern auch von der Fähigkeit, die Verarbeitungslast geschickt zwischen verschiedenen Geräten und Prozessen zu verteilen.

Die Weiterentwicklung der Technologien rund um Rendering und die effiziente Nutzung von GPU-Ressourcen wird in Zukunft entscheidend für die Weiterentwicklung von VR, AR und grafisch intensiven Anwendungen sein. Nutzer von mobilen Geräten und Workstations können somit auf eine deutlich verbesserte Nutzererfahrung hoffen, da die Performance durch intelligente Architektur und die Verteilung von Rechenlast optimiert wird.