Virtuelle Anwendungen im Bereich des kulturellen Erbes verlangen nach einem differenzierten Bewusstsein für die Trennung zwischen dem greifbar Materiellen und dem Immateriellen, dem, was man nicht anfassen, aber kulturell verorten kann. Zwei exemplarische materielle Komponenten sind die originalgetreue Rekonstruktion historischer Artefakte sowie die digitale Nachbildung architektonischer Räume, etwa antiker Tempel oder Museen. Im Gegensatz dazu stehen zwei immaterielle Aspekte: Rituale und Traditionen einer Kultur sowie Gerüche, Geräusche und Atmosphären, die mit einem Ort oder Ereignis verbunden sind.

Ein markantes Beispiel für virtuelle Rekonstruktion ist das Projekt „House of Greek Epigrams“. Es handelt sich hierbei um ein narratives, virtuelles Erbe-Erlebnis, das unter Anwendung interaktiver 3D-Technologien entwickelt wurde. Durch Bewegungsverfolgung und Blickpunktanalyse wurden die Interessen der Besucher in Echtzeit erfasst. Diese Datenerhebung ermöglichte eine tiefere Analyse der kognitiven und emotionalen Reaktionen auf verschiedene narrative Elemente innerhalb der rekonstruierten Umgebung.

Olfaktorisches Erbe – also die Bewahrung und Integration historischer Gerüche – gewinnt zunehmend an Bedeutung, insbesondere in der musealen Präsentation von Altmeistern. In Galerien werden gezielt Duftreproduktionen eingesetzt, um etwa die Atmosphäre einer Renaissance-Werkstatt oder den Geruch gealterten Papiers und Ölfarben zu vermitteln. Diese multisensorische Strategie erzeugt ein immersiveres Besuchserlebnis und ermöglicht eine tiefere emotionale Verbindung zur Vergangenheit.

Virtuelle Realität hat auch das Feld der Computerspiele nachhaltig verändert. Man unterscheidet dabei etwa zwischen narrativen Abenteuerspielen (z. B. „Life is Strange“), kompetitiven Multiplayer-Shootern (z. B. „Counter-Strike: Global Offensive“) und Simulationsspielen (z. B. „Microsoft Flight Simulator“), bei denen realitätsnahe Repräsentation und physikalische Genauigkeit im Vordergrund stehen.

Auch ortsbasierte VR-Unterhaltung erfreut sich wachsender Beliebtheit. Zwei zentrale Formen sind VR-Arcades, in denen Nutzer vollständig in virtuelle Welten eintauchen, sowie sogenannte „Free Roam VR“-Installationen, in denen sich die Besucher frei durch einen physischen Raum bewegen, während sie in Echtzeit eine digitale Umgebung erleben. Beispiele sind „Zero Latency VR“ oder „The VOID“.

Die Architektur des allgemeinen Cloud-Gamings basiert auf einer client-server-orientierten Struktur, bei der das Rechenzentrum die gesamte Rechenleistung übernimmt, während die Ausgabe über Streaming auf das Endgerät des Nutzers übertragen wird. Beim Cloud-Gaming in VR kommt eine zusätzliche Komplexität hinzu: Latenzreduktion, Kopfbewegungstracking und stereoskopisches Rendering müssen in Echtzeit erfolgen, was eine engere Kopplung zwischen Server- und Clientseite notwendig macht.

Das Militär war ein früher Anwender von VR-Technologien, aus drei zentralen Gründen: Erstens erlaubte es kosteneffizientes Training in risikofreien Umgebungen. Zweitens wurde eine standardisierte Ausbildung ermöglicht, unabhängig von realer geografischer Lage. Drittens bot VR eine Möglichkeit, extrem gefährliche oder logistisch aufwendige Szenarien realistisch zu simulieren, ohne reale Ressourcen zu verbrauchen.

Der SATT-Simulator (Semi-Automated Tactics Trainer) stellt eine neue Generation militärischer Trainingssysteme dar. Im Unterschied zu früheren SATT-Versionen integriert er KI-gesteuerte Gegnerlogik und adaptive Schwierigkeitsgrade. Seine Fähigkeit zum After Action Review (AAR) basiert auf detaillierten Logdaten, die einzelne taktische Entscheidungen analysieren und bewerten.

Ein zentrales Problem bei der Gestaltung von Fahrersimulatoren für gepanzerte Fahrzeuge liegt in der realitätsnahen Nachbildung der stark eingeschränkten Sichtverhältnisse und Bewegungsräume innerhalb solcher Fahrzeuge. Die Studie von Tang et al. (2023) betont die Notwendigkeit von Head-Mounted Displays mit variablem Sichtfeld sowie taktiler Rückkopplung, um die Diskrepanz zwischen virtueller und realer Bedienung zu minimieren.

Der F-16-Deployable-Simulator stellt ein vollständig transportables Flugsimulationssystem dar, das sowohl VR- als auch MR-Komponenten integriert. Sein modularer Aufbau ermöglicht den schnellen Einsatz in verschiedenen militärischen Kontexten. MR-Flugsimulatoren bieten im Vergleich zu rein virtuellen Systemen eine höhere Präzision, da reale Cockpitkomponenten mit digitaler Umgebung kombiniert werden. Die Studie von Wang (2023) zeigt, dass Piloten in MR-Umgebungen signifikant höhere Genauigkeit und kürzere Reaktionszeiten aufweisen.

Feuerwehrsimulationen an Bord von Schiffen stellen besonders hohe Anforderungen an Realitätsnähe. Die Architektur solcher Simulatoren beinhaltet Module zur Hitze- und Rauchsimulation, physikalischer Bewegung von Brandszenarien sowie kollaborativer Interaktion zwischen Besatzungsmitgliedern. Ziel ist nicht nur das Training einzelner Fertigkeiten, sondern das kollektive Reagieren auf Eskalationen in dynamischen Extremsituationen.

Darüber hinaus ist es wesentlich, dass Leser verstehen, dass virtuelle Systeme keine bloßen Repliken der Realität sind, sondern kulturell konstruierte Räume mit eigener Semiotik. Die Frage der Authentizität ist dabei ebenso entscheidend wie die technische Ausführung. Auch der ethische Umgang mit Vergangenheit, etwa in Bezug auf digitale Reinszenierungen traumatischer historischer Ereigni

Wie kann Geruchssinn in virtuellen Realitäten effektiv genutzt werden?

Der Geruchssinn, obwohl evolutionsbiologisch einer der ältesten Sinne, bleibt in der Entwicklung virtueller Realitäten bislang die am wenigsten erforschte Modalität. Dabei besitzt olfaktorisches Feedback das Potenzial, die Immersion signifikant zu steigern und Simulationen realistischer zu gestalten. Düfte können Erinnerungen hervorrufen, Verhalten beeinflussen und Emotionen aktivieren – Aspekte, die für Training, Therapie oder Unterhaltung in virtuellen Umgebungen eine tiefgreifende Rolle spielen. Die gezielte Integration von Geruch in VR-Interfaces erfordert jedoch ein tiefes Verständnis physiologischer, technischer und gestalterischer Faktoren.

Im Gegensatz zu visuellen oder auditiven Signalen fehlt es in der Welt der Gerüche an universellen Primärreizen. Es existieren keine „Primärgerüche“, die sich beliebig kombinieren ließen. Jeder gewünschte Duft muss als spezifisches Aromamolekül chemisch erzeugt, isoliert und in sicherer Form zur Anwendung gebracht werden. Die Anforderungen an diese Substanzen sind hoch: Sie müssen ungiftig, hypoallergen, chemisch stabil und für das Inhalieren unbedenklich sein. Die Erzeugung eines Geruchs erfolgt üblicherweise durch das Zerstäuben ätherischer Öle oder aromatischer Lösungen, deren Partikel dann gezielt zur Nasenregion des Nutzers geleitet werden.

Die Qualität eines olfaktorischen Feedbacksystems in VR hängt wesentlich von seiner zeitlichen Präzision ab. Die sogenannte olfaktorische Latenz beschreibt das Intervall zwischen dem Auslösen eines Geruchs durch das Host-System und dessen tatsächlicher Wahrnehmung durch den Nutzer. Diese Latenz umfasst mehrere Phasen: die Signalübertragung vom Computer zur Hardware, die mechanische Öffnung des Duftventils, den Lufttransport des Aromas zum Nutzer sowie die neuronale Verarbeitung im Gehirn. Dominierend für die Verzögerung ist in der Regel die Lufttransportzeit, was durch kurze Distanzen und gezielte Luftführung optimiert werden kann – z. B. durch Hochgeschwindigkeitsdüsen, Schlauchsysteme oder ringförmige Nasenaufsätze.

Ein zentrales physiologisches Phänomen, das bei der Gestaltung olfaktorischer Interfaces berücksichtigt werden muss, ist die sogenannte temporale Adaptation. Wird ein Geruch über längere Zeit konstant wahrgenommen, reduziert das Gehirn seine Sensitivität, bis der Geruch nicht mehr bewusst registriert wird – selbst wenn er physikalisch noch präsent ist. Dieses Phänomen kann gezielt manipuliert werden: Durch das kurzzeitige Einführen eines kontrastierenden Dufts kann die olfaktorische Wahrnehmung „zurückgesetzt“ werden, sodass der ursprüngliche Geruch wieder bewusst wahrgenommen werden kann. Solche Strategien finden etwa in militärischen Trainingssimulationen Anwendung, wo das Reaktivieren eines unangenehmen Geruchs (z. B. von modrigem Boden) nach olfaktorischer Gewöhnung entscheidend sein kann.

Mit zunehmendem Alter oder bei neurodegenerativen Erkrankungen wie Alzheimer verschlechtert sich die Fähigkeit zur Geruchswahrnehmung messbar. Dies beeinflusst sowohl die Detektionsschwelle als auch die Adaptationsdynamik. Diese biologische Variabilität macht eine nutzerspezifische Kalibrierung olfaktorischer Systeme notwendig, will man eine konsistente Wahrnehmungserfahrung gewährleisten.

Technisch unterscheiden sich olfaktorische Systeme für VR in mehreren Kategorien: ambientbasierte Systeme verteilen Gerüche gleichmäßig im Raum, ohne einen bestimmten Nutzer zu adressieren. Projektionsbasierte Systeme lenken Duftströme gezielt auf eine Person, während tragbare Geräte wie Geruchs-Headsets oder Nasenmodule eine individuelle und mobile Lösung darstellen. Allen gemeinsam ist der Einsatz von Duftflaschen und einer luftbasierten Verteilungstechnik. Die Herausforderung liegt in der präzisen Steuerung der Duftintensität, der geräuschlosen und schnellen Umschaltung zwischen verschiedenen Düften sowie der effizienten Entfernung verbleibender Geruchspartikel – häufig durch Aktivkohlefilter oder Absaugventilatoren.

Ein nicht zu unterschätzender Faktor ist die Ökonomie dieser Technologie: Duftstoffe sind Verbrauchsmaterialien. Je nach Häufigkeit der Nutzung, Vielfalt der eingesetzten Gerüche und chemischer Stabilität der Aromastoffe können die Betriebskosten beträchtlich sein. Hinzu kommt der technische Wartungsaufwand, insbesondere bei Systemen mit mehreren Dutzend Duftkanälen, die präzise synchronisiert und regelmäßig nachgefüllt werden müssen.

Wesentlich ist auch das Verständnis der olfaktorischen Wahrnehmung selbst: Sie ist individuell unterschiedlich, kulturell geprägt und emotional hoch wirksam. Ein Geruch, der in einer Region positive Assoziationen hervorruft, kann andernorts Abscheu auslösen. Die Gestaltung olfaktorischer Inhalte für VR erfordert daher interdisziplinäres Wissen aus Chemie, Neurowissenschaft, Informatik und Kulturwissenschaft. Ebenso müssen ethische Aspekte berücksichtigt werden – etwa bei der Darstellung unangenehmer oder manipulativ eingesetzter Düfte, die Nutzer emotional beeinflussen könnten.

Die Entwicklung leistungsfähiger olfaktorischer Interfaces steht noch am Anfang. Die Integration in bestehende multimodale VR-Systeme eröffnet jedoch enorme Potenziale: für realitätsnahe Trainingsumgebungen, für immersive Erzählformen, für multisensorische Therapieansätze oder für neuartige Formen emotionaler Kommunikation. Die Komplexität des Geruchssinns – seine flüchtige, schwer kontrollierbare und hochgradig subjektive Natur – macht ihn zu einer besonderen Herausforderung. Doch gerade darin liegt seine Kraft.

Wie beeinflusst die Architektur der Haptik-Pipeline die VR-Erfahrung?

Die Modellierung der Kontaktkräfte in virtuellen Umgebungen ist ein zentraler Bestandteil der Haptiktechnik. Im Gegensatz zu den klassischen visuellen Darstellungen ist die Haptik stark von der Oberflächenverformung des virtuellen Objekts abhängig. Kontaktkräfte zeigen eine federähnliche Abhängigkeit von der Art und Weise, wie die Oberfläche deformiert wird. Dies ermöglicht eine realistische Simulation der physikalischen Eigenschaften von Oberflächen, wie z.B. die Festigkeit oder Flexibilität. Doch die Komplexität der Haptikmodellierung steigt, wenn Dämpfungs- und Reibungskräfte ins Spiel kommen, die für eine realistische Simulation erforderlich sind, aber auch die Rechenleistung erheblich steigern. Ein solches Modell wurde von Hou und Sourina (2013) vorgestellt, bei dem ein virtueller Kopplungsmechanismus zwischen dem haptischen Interface und dem virtuellen Werkzeug verwendet wird, das vom Benutzer gesteuert wird. Diese Kopplung hilft, Diskontinuitäten in der Kraftregelung zu verhindern und die Sicherheit der Simulation zu erhöhen.

Die wahre Herausforderung in einem Haptiksystem entsteht jedoch, wenn mehrere Objekte gleichzeitig mit der virtuellen Umgebung in Kontakt stehen. Je mehr Kontakte es gibt und je komplexer die Kraftmodellierung wird, desto größer ist die Wahrscheinlichkeit, dass die Rechenpipeline aufgrund der erhöhten Komplexität „kraftbegrenzt“ wird. Hier kann die Vereinfachung von Modellen eine Lösung sein, da dadurch die Anforderungen an die Rechenleistung gesenkt werden.

Ein weiterer wichtiger Bestandteil der Haptikmodellierung ist die Kraftglättung, die in der zweiten Stufe der Haptikpipeline erfolgt. Hier wird die Richtung des Kraftvektors angepasst, um scharfe Übergänge zwischen polygonalen Oberflächen zu vermeiden, die vor allem bei rechtwinkligen Kanten problematisch werden. In der nächsten Phase, dem Kraft-Mapping, wird die berechnete Kraft auf die Charakteristika des verwendeten haptischen Display-Systems projiziert, wodurch die Simulation an die jeweiligen physikalischen Limitierungen des Systems angepasst wird. Ein Beispiel für solches Mapping ist das von Hou und Sourina (2013) vorgeschlagene Saturationsmodul, das die begrenzte Ausgabekapazität eines bestimmten haptischen Interfaces berücksichtigt. Diese Feinheiten werden später in Kapitel 6 dieses Buches ausführlicher behandelt.

Die letzte Stufe der Haptikpipeline, die Texturierung der haptischen Rückmeldung, ist für die Darstellung der Berührungsfeedback-Komponente verantwortlich. Hierbei werden die berechneten Effekte, wie Vibrationen oder die simulierte Oberflächentemperatur, dem Kraftvektor hinzugefügt und an das haptische Ausgabedisplay übermittelt. Es ist von entscheidender Bedeutung, dass dieses Mapping die Eigenschaften des verwendeten haptischen Interfaces berücksichtigt. In bestimmten Fällen, wie beispielsweise beim CyberTouch II-Handschuh, könnte dies auch dazu führen, dass Kontaktkräfte durch Vibrationen ersetzt werden.

Die Architektur einer Haptik-Pipeline unterscheidet sich von der der grafischen Rendering-Pipeline und ist aufgrund der schnell fortschreitenden Technologie im Bereich der Haptik noch weniger standardisiert. Sie spiegelt somit den aktuellen Stand der haptischen Technologie wider, der sich ständig weiterentwickelt. Diese Fortschritte sind eng mit den Rechenressourcen und der Leistungsfähigkeit der zugrunde liegenden Hardware verbunden, wobei der PC aufgrund seiner überlegenen Grafik-Rendering-Fähigkeiten nach wie vor eine bevorzugte Plattform für VR-Experimente darstellt.

Die Leistung eines PC, insbesondere in Bezug auf die Prozessor- und Grafikleistung, spielt eine entscheidende Rolle bei der Wahrnehmung und Verarbeitung von Haptikfeedback. Hier ist vor allem die Geschwindigkeit des CPUs und die Bandbreite der Kommunikationsbusse auf den Motherboards von Bedeutung, da diese für die Echtzeitberechnungen von VR-Simulationen von zentraler Bedeutung sind. Die zunehmende Rechenlast, die durch CPUs und GPUs erzeugt wird, ist direkt mit einer Erhöhung des thermischen Abdrucks verbunden, da diese Komponenten auf Siliziumtechnologie basieren. Um die Rechenleistung aufrechtzuerhalten und gleichzeitig die Integrität der PC-Elektronik zu gewährleisten, ist es unerlässlich, auf das Kühlsystem des PCs zu achten.

Besondere Beachtung verdienen die 12. Generation der Intel Core-CPUs, die im Jahr 2021 mit der Alder-Lake-Architektur auf den Markt kamen. Diese CPUs verfügen über eine hybride Architektur, die hochleistungsfähige P-Kerne mit energieeffizienten E-Kernen kombiniert. Die genaue Anzahl und Art der Kerne variiert je nach Modell. Diese Architektur sorgt für eine verbesserte Leistung, da mehrere Aufgaben parallel ausgeführt werden können, was für VR-Anwendungen besonders wichtig ist. Das Betriebssystem des PCs nutzt einen sogenannten „Thread Director“, um die Auslastung der Kerne zu überwachen und die Ressourcen entsprechend zuzuweisen. Dieser Director sammelt kontinuierlich Leistungsdaten der Kerne und sendet sie in Echtzeit an das Betriebssystem, sodass es die optimale Leistung des Systems gewährleisten kann.

Des Weiteren spielt der PCIe 5.0-Bus eine zentrale Rolle bei der Kommunikation mit grafikintensiven Geräten wie den GPUs. Diese Busse bieten eine hohe Datenübertragungsrate und sorgen so dafür, dass Daten in der Grafikpipeline schnell verarbeitet werden können. Während die PCIe 5.0-Busse bereits eine hohe Übertragungsrate bieten, ermöglicht der neueste PCIe 6.0-Bus sogar eine noch höhere Bandbreite, die für die immer komplexeren Anforderungen an die VR- und Haptik-Systeme von entscheidender Bedeutung ist.

Für eine nahtlose Integration der VR-Systeme müssen verschiedene Hardware-Komponenten effizient zusammenarbeiten, angefangen bei den Grafikkarten bis hin zu den Eingabegeräten wie den HTC Trackern, die es dem Benutzer ermöglichen, die Position und Orientierung des virtuellen Werkzeugs zu steuern. Diese Geräte werden über USB 3.2 Ports mit dem PC verbunden, wobei die Kommunikation über schnelle Schnittstellen wie LAN und Wi-Fi 6E ermöglicht wird, um bei Shared VR-Settings mit anderen PCs oder der Cloud zu interagieren.

Neben der Leistungsfähigkeit der Hardware ist die Softwarestruktur ebenso wichtig, um eine nahtlose Integration zwischen den verschiedenen Geräten zu gewährleisten und die Leistungsanforderungen zu erfüllen, die für eine realistische VR-Erfahrung erforderlich sind.