Die Rechenlast beim Rendern eines 3D-Objekts hängt maßgeblich von der Anzahl der Polygone und dem gewählten Renderverfahren ab. Ein Objekt mit vielen Polygonen, das etwa mit Phong- oder Radiosity-Methoden dargestellt wird, erfordert deutlich mehr Rechenzeit als ein einfacheres Objekt mit geringer Polygonzahl, besonders wenn dieses weit entfernt vom Betrachter ist und somit eine niedrigere Detailstufe (Level of Detail, LOD) besitzt. Die Gesamtkosten für einen Frame ergeben sich aus der Summe der Kosten aller im Bild enthaltenen Objekte und dürfen eine vorgegebene Zielzeit pro Frame nicht überschreiten. Die adaptive LOD-Methode optimiert die Darstellung, indem sie zuerst die Objekte mit dem höchsten Wert für die Szene rendert, während Objekte mit geringem Wert ganz ausgelassen werden können, selbst wenn sie sichtbar wären. Sobald die Zielzeit erreicht ist, wechselt das System zum nächsten Frame, was eine konstante Bildrate sicherstellen soll.
Diese Vorgehensweise setzt voraus, dass das gesamte Modell im verfügbaren Arbeitsspeicher (DRAM) liegt, sodass keine zeitintensiven Zugriffe auf den Festplattenspeicher (SSD) nötig sind. Große Modelle, die den DRAM übersteigen, müssen in kleinere, handhabbare Abschnitte unterteilt werden, sogenannte „Cells“. Jede Cell ist ein abgegrenzter Bereich, etwa ein Raum in einem Gebäude, der als Polygon (in 2D) oder als Prisma (in 3D) modelliert wird. Zwischen diesen Cells befinden sich „Portale“, die Verbindungen zwischen benachbarten Bereichen darstellen, wie Türen oder Fenster. Die Gesamtheit der Cells und Portale bildet einen Adjazenzgraphen, in dem die Cells die Knoten und die Portale die Kanten darstellen.
Die automatische Zellsegmentierung ermöglicht es, zur Laufzeit nur die Objekte innerhalb der aktuellen Cell und angrenzender sichtbarer Cells zu rendern. Dadurch wird die Komplexität der dargestellten Szene signifikant reduziert. In der Architekturvisualisierung entsprechen Cells oft einzelnen Räumen, Portale sind Türen oder Fenster. Geschlossene Türen unterbrechen die Sichtverbindung und schließen so die Möglichkeit der direkten Darstellung von benachbarten Cells aus.
Eine zentrale Rolle spielt dabei das Konzept der „Potentially Visible Set“ (PVS), das alle Polygone umfasst, die von irgendeiner Position innerhalb einer Cell sichtbar sind. Die PVS sichert ab, dass keine relevanten Geometrien ausgelassen werden. Bei geschlossenen Cells besteht die PVS nur aus den innerhalb dieser Cell liegenden Polygonen, während bei offenen Zellen zusätzlich die von den Portalen aus sichtbaren Polygone angrenzender Cells hinzugerechnet werden.
Die Komplexität großer Modelle zeigt sich exemplarisch in einem Projekt der Universität Berkeley, bei dem ein Modell mit über 240.000 Polygonen in 1280 Cells und 3600 Portale unterteilt wurde. Hier reichte eine einfache adaptive LOD nicht aus, um konstante Bildraten zu gewährleisten, da der Sichtbereich durch Kamerabewegungen stark variierte und plötzlich viele neue Objekte sichtbar wurden.
Eine besondere Herausforderung bei großen Modellen sind sogenannte „Page Faults“, die auftreten, wenn Daten nicht im schnellen DRAM oder Cache vorhanden sind und von der langsameren Festplatte geladen werden müssen. Dieser Vorgang führt zu erheblichen Verzögerungen, die die Immersion und Interaktivität empfindlich stören. Um dies zu verhindern, wurde eine zusätzliche Datenbank-Management-Schicht implementiert, die basierend auf der aktuellen und prognostizierten Kameraposition vorausschauend Objekte in den Arbeitsspeicher lädt. Dabei werden niedrig aufgelöste Modelle mit geringem Ladeaufwand zuerst geladen, während hochauflösende Modelle erst kurz vor Ablauf der Zielzeit nachgeladen werden. So wird sichergestellt, dass immer mindestens eine vereinfachte Darstellung bereitsteht, und das Nachladen detaillierterer Modelle erfolgt ohne spürbare Unterbrechungen.
Die beschriebenen Methoden sind nicht nur auf architektonische Visualisierungen beschränkt, sondern finden auch in der Spieleentwicklung und anderen Echtzeitanwendungen Verwendung. Dort ist es ebenso entscheidend, nur die unmittelbare Umgebung des Spielers darzustellen, um die Leistung zu optimieren und flüssige Bildraten zu gewährleisten.
Zusätzlich zu diesen technischen Aspekten ist es wichtig, das Zusammenspiel von Speicherarchitektur, Datenmanagement und Rendering-Techniken ganzheitlich zu betrachten. Die Vorhersage der Kamerabewegung und das intelligente Vorladen von Daten sind entscheidend, um das Risiko von Unterbrechungen zu minimieren. Ferner spielt die Wahl der Granularität der Zellsegmentierung eine wesentliche Rolle: Zu grobe Segmentierung kann die Effizienz schmälern, zu feine kann zu hohem Verwaltungsaufwand führen. Eine sorgfältige Abstimmung dieser Parameter ist für den Erfolg solcher Systeme unerlässlich.
Wie beeinflussen verschiedene Lokomotions- und Feedbacktechniken die Nutzerleistung in virtuellen Umgebungen?
In Studien zur virtuellen Lokomotion wurde zunächst die individuelle Anatomie der Teilnehmer erfasst, um virtuelle Aufgaben passgenau anzupassen. Die Bewertung der Nutzerleistung erfolgte anhand objektiver Messgrößen, die je nach Aufgabe variierten. So wurde beispielsweise die Zeit zur Aufgabenbewältigung bei geradliniger Fortbewegung, entkoppelter Lokomotion oder bei Interaktionen mit Objekten als Leistungsindikator herangezogen. Weitere Messgrößen umfassten Kollisionen mit Wänden sowie Abweichungen vom vorgegebenen Pfad. Spezifisch für bestimmte Aufgaben wurde etwa die Anzahl der während des Greif- und Ablegevorgangs fallengelassenen Objekte erfasst, während bei entkoppelter Fortbewegung Unterbrechungen im Gangverhalten als zusätzlicher Parameter dienten.
Ein Test mit 48 Probanden, die alle Aufgaben unter vier verschiedenen Lokomotionstechniken ausführten, zeigte eine Rangfolge der Techniken hinsichtlich Leistung: JS erzielte die besten Ergebnisse, gefolgt von AS, dann CV, wobei WIP am schlechtesten abschnitt. Die Autoren warnen jedoch davor, diese Reihenfolge absolut zu interpretieren, da die experimentelle Datenbasis gewichtete Werte verwendete und keine paarweisen Vergleiche möglich waren.
Die Qualität und Quantität des Feedbacks beeinflusst die Leistung maßgeblich. Während frühere Studien Feedbackarten konstant hielten und nur deren Qualität variierten, wurde nun der Einfluss des Vorhandenseins oder Fehlens verschiedener Feedbackmodalitäten untersucht. Besonders bei Manipulations- und Montageaufgaben werden visuelle, auditive und haptische Rückmeldungen einzeln oder kombiniert betrachtet. Neuere Untersuchungen integrieren auch olfaktorisches Feedback, was das Spektrum der sensorischen Rückmeldung erweitert.
Multimodales Feedback bedeutet das gleichzeitige Bereitstellen mehrerer sensorischer Kanäle und steht in engem Zusammenhang mit den Konzepten der sensoriellen Substitution und Redundanz. Sensorielle Substitution tritt auf, wenn Informationen aus einem Sinneskanal über einen anderen präsentiert werden, etwa taktile Informationen für Sehbehinderte durch Braille oder visuelle Rückmeldungen für Hörbehinderte via Gebärdensprache. In VR-Umgebungen kann beispielsweise das erwartete haptische Feedback bei einer Peg-in-Loch-Aufgabe durch akustische oder visuelle Signale ersetzt werden, wenn keine haptischen Aktuatoren vorhanden sind.
Sensorielle Redundanz hingegen beschreibt die parallele Übermittlung gleicher Informationen über mehrere Sinne, um die Leistung zu verbessern. So kann das Gefühl eines harten virtuellen Hindernisses nicht nur haptisch, sondern auch visuell durch eine Kraftvektor-Darstellung unterstützt werden. Diese redundanten Informationen helfen insbesondere bei komplexen Aufgaben, bergen jedoch das Risiko einer sensorischen Überforderung, wenn sie im Übermaß eingesetzt werden.
Frühere Experimente am Rutgers University Human–Machine Interface Laboratory untersuchten den Einfluss von sensorieller Substitution und Redundanz beim Manipulieren verformbarer virtueller Objekte. In einer Aufgabe mussten Teilnehmer eine virtuelle Kugel von einem Startpunkt zu einem Ziel bewegen, wobei Zeitlimits und maximale Deformationen eingehalten werden mussten. Fehler entstanden durch Überdehnung, Verlust oder falsche Ablage der Kugel. Dabei wurde eine Kombination aus visueller, auditiver und haptischer Rückmeldung genutzt. Verschiedene Gruppen erhielten entweder nur visuelles Feedback, visuelles Feedback mit LED-basiertem substitutivem Kraftsignal, auditives Feedback mit Tonhöhenvariation entsprechend der Greifkraft oder redundante Kombinationen aus diesen Modalitäten.
Die Resultate zeigen, dass durch sinnvolle Integration von mehreren Feedbackkanälen die Präzision und Effizienz der Nutzer gesteigert werden kann. Allerdings muss dabei beachtet werden, dass das Gleichgewicht zwischen Informationsmenge und Verarbeitungsfähigkeit des Nutzers gewahrt bleibt, um sensorische Überlastung zu vermeiden.
Neben der technischen Implementierung von Feedbackmodalitäten ist es wichtig, den Nutzer individuell zu betrachten. Faktoren wie Erfahrung, kognitive Kapazität und sensorische Präferenzen spielen eine entscheidende Rolle für die optimale Gestaltung von Feedback in virtuellen Umgebungen. Darüber hinaus sollte das Zusammenspiel verschiedener Sinne und die Anpassung der Feedbackintensität dynamisch auf die jeweilige Aufgabe und den Nutzer abgestimmt werden. Dies gilt besonders für Anwendungen im Training, in der Rehabilitation oder bei der Gestaltung immersiver Lernumgebungen.
Endtext

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский