Die Analyse der Total Sickness Scores (TSS) über eine 7,5-stündige Exposition gegenüber Head-Mounted Displays (HMD) im Vergleich zu Desktop-LCD-Displays zeigt markante Unterschiede im Verlauf der Cybersickness-Symptome. Bei der HMD-Bedingung dominierte die Disorientierung als wesentlicher Faktor, der sich von Beginn (T0) bis zum Ende der Beobachtungsperiode (T5) kontinuierlich verstärkte. Im Gegensatz dazu wiesen die Oculomotor- und Übelkeitsscores zwar eine Zunahme auf, diese fiel jedoch deutlich schwächer aus. Im Vergleich dazu zeigte die Desktop-Display-Bedingung ein anderes Muster, bei dem oculomotorische Beschwerden im Vordergrund standen und Disorientierung sowie Übelkeit weniger stark beitrugen. Insgesamt entfielen etwa 50 % der Zunahme der Cybersickness auf die HMD-Bedingung über die untersuchte Dauer.

Eine Ausnahme von der kontinuierlichen Steigerung des SSQ TSS zeigte sich bei der HMD-Bedingung zwischen den Messzeitpunkten T2 und T3, in denen die HMDs wegen einer Mittagspause nicht getragen wurden. Diese Stabilisierung ist jedoch nicht als Adaptation zu interpretieren, da die kurze Unterbrechung und unterschiedliche Aufgabenstellungen in diesem Zeitraum eine echte Gewöhnung ausschließen. Der Begriff Adaptation beschreibt vielmehr eine semi-permanente Veränderung in der Wahrnehmung und der sensorischen Integration, die bei wiederholter und konsistenter Exposition gegenüber denselben sensoriellen Konflikten eintritt. Dabei lernt das Gehirn, die ursprünglich als widersprüchlich empfundenen multimodalen Sinneseindrücke als normal im jeweiligen Kontext zu interpretieren, wodurch die Intensität der Cybersickness allmählich abnimmt.

Die Adaptation erfordert wiederholte Exposition gegenüber identischen Aufgaben, wobei die Zeitintervalle zwischen den einzelnen Durchgängen sowie deren Anzahl entscheidend sind. Aktive Interaktion und fokussierte Aufmerksamkeit während der Simulation fördern diesen Prozess. Ein anschauliches Beispiel liefert eine Studie der University of Wollongong, in der zwei unterschiedliche VR-Aufgaben – eine Achterbahnfahrt und das Besteigen eines Leuchtturms – eingesetzt wurden, um zu prüfen, ob Adaptation von einer Aufgabe auf eine andere übertragbar ist. Beide Aufgaben verursachten sensoriellen Konflikt durch Diskrepanz zwischen dem unbewegten Körper des Nutzers und der Bewegung des Avatars.

Die Studie zeigte, dass sich bei wiederholter Exposition die Disorientierungswerte signifikant verringerten, insbesondere bei der Rollercoaster-Aufgabe, und dass diese Adaptation unabhängig von der zusätzlichen Exposition gegenüber der zweiten, unterschiedlichen Aufgabe war. Damit wird klar, dass Adaptation an eine spezifische VR-Erfahrung gebunden ist und nicht automatisch generalisiert. Die Verringerung der Cybersickness zeigt sich dabei auch in einer abgeschwächten Zunahme subjektiver Symptome während der Sessions, was auf eine zunehmende Toleranz hinweist.

Neben der Adaptation treten jedoch Nachwirkungen (Aftereffects) auf, die als semi-permanente Veränderungen im Bewegungsverhalten, in der Wahrnehmungskoordination oder als sensorische Störungen im realen Umfeld nach der VR-Nutzung definiert werden können. So wurde beobachtet, dass Nutzer nach VR-Exposition fehlerhafte Körperbewegungen, falsche Kraftwahrnehmungen oder auditive Fehlwahrnehmungen zeigen können. Diese Nachwirkungen können sich in Form von Flashbacks, anhaltendem Gefühl von Eigenbewegung, Schwindel, Kopfschmerzen oder verminderter Hand-Auge-Koordination manifestieren und dauern teilweise noch lange nach Ende der VR-Sitzung an.

Beispielsweise berichteten Teilnehmer, die das Spiel „Beat Saber“ 50 Minuten mit HMD spielten, noch 40 Minuten nach Beendigung der Session von Cybersickness-Symptomen, während eine kürzere Spielzeit von 10 Minuten keine derartigen Nachwirkungen zeigte. Diese anhaltenden Symptome beeinträchtigen nicht nur die Leistungsfähigkeit bei realen Aufgaben, sondern können auch die Sicherheit der Nutzer gefährden. Deshalb haben Institutionen wie das Militär „Grounding-Policies“ eingeführt, die nach Simulator-Sitzungen den Verzicht auf bestimmte Aktivitäten wie Fahren, Fahrradfahren oder Arbeiten in großer Höhe für mehrere Stunden empfehlen, um den Nutzern eine sichere Re-Adaptation an die reale sensorische Umwelt zu ermöglichen.

Wichtig ist zu verstehen, dass die Effekte von Cybersickness, Adaptation und Nachwirkungen eng miteinander verknüpft sind und unterschiedliche Zeitverläufe sowie Ausprägungen aufweisen. Die Kontrolle und Steuerung dieser Faktoren ist entscheidend für den langfristigen Erfolg und die Sicherheit von VR-Anwendungen. Dabei spielt die Wiederholung identischer Aufgaben und die Gestaltung der Expositionsdauer eine zentrale Rolle, um einerseits Adaptation zu fördern und andererseits die Risiken durch Nachwirkungen zu minimieren. Die Forschung zeigt zudem, dass sensomotorische und multisensorische Prozesse des Gehirns eine hohe Plastizität besitzen, die genutzt werden kann, um Cybersickness effektiv zu reduzieren. Gleichzeitig gilt es, die individuellen Unterschiede in der Anfälligkeit und in der Adaptationsfähigkeit zu berücksichtigen, um personalisierte Nutzungsprotokolle zu entwickeln.

Wie funktioniert die präzise Verfolgung von Bewegung und Blickrichtung in modernen VR-Headsets?

Die Entwicklung moderner Head-Mounted Displays (HMDs) für Virtual Reality (VR) hat die Art und Weise revolutioniert, wie wir in virtuelle Welten eintauchen. Eine Schlüsseltechnologie hinter der Genauigkeit dieser Systeme ist die Kombination von visuellen und inertialen Tracking-Techniken, die es ermöglichen, Position und Orientierung von Nutzern in Echtzeit zu verfolgen. Diese hybride Tracker-Architektur, wie sie von Meta für das Oculus Insight System verwendet wird, sorgt dafür, dass die Interaktionen des Nutzers präzise und nahtlos in die virtuelle Umgebung übertragen werden.

Das Oculus Insight System, das in Geräten wie dem Meta Quest 2 zum Einsatz kommt, nutzt eine Vielzahl von Technologien, um diese Genauigkeit zu gewährleisten. Zunächst erfolgt die Berechnung der Position und Orientierung des HMD (Head-Mounted Display) und der Controller durch drei Threads. Der erste Thread, der als Room Mapping Thread bezeichnet wird, erstellt Modelle der Umgebung, sogenannte „Raumkarten“. Diese Karten dienen als Referenz für die Positionsbestimmung der HMDs und Controller. Da sich die Geometrie der Umgebung ständig ändern kann – durch das Hinzufügen neuer Objekte oder die Bewegung bestehender – ist dieser Prozess iterativ. Der Room Mapping Thread arbeitet mit regelmäßig aktualisierten Keyframes und Punktgeometrie, die aus einem anderen Thread stammen.

Der zweite Thread, der IMU Thread, verwendet die im HMD und den Controllern eingebauten Inertial Measurement Units (IMUs), um lineare und rotatorische Beschleunigungen zu messen. Diese Messdaten werden dann in Positionen und Orientierungen umgerechnet und in einem Status- sowie IMU-Buffer gespeichert. Der IMU-Thread hat eine höhere Aktualisierungsrate als der Room Mapping Thread und der Tracker Thread, weshalb die IMU-Daten zwischen den einzelnen Threads synchronisiert werden müssen. In einem weiteren Schritt kombiniert der Tracker Thread die von der IMU bereitgestellten Daten mit den durch das SLAM (Simultaneous Localization and Mapping) erzeugten Karten, um die Position und Orientierung der Geräte in der virtuellen Welt genau zu schätzen.

Neben der klassischen Positionsverfolgung hat die Integration von Augenverfolgungstechnologien in HMDs die Benutzererfahrung weiter verbessert. Augen-Tracker ermöglichen es, die Blickrichtung und sogar die Augenbewegungen des Nutzers präzise zu verfolgen. Ein Augen-Tracker besteht aus einem IR-Beleuchter, einer IR-Kamera und einem Verarbeitungselement, das die Reflexion von IR-Licht vom Auge erfasst und daraus die Blickrichtung des Nutzers bestimmt. Diese Technik hat in den letzten Jahren zunehmend Einzug in die VR-Headsets gehalten. Der Vorteil der Augenverfolgung liegt nicht nur in der Möglichkeit, die Blickrichtung zu bestimmen, sondern auch darin, dass sie die automatische Anpassung des Augenabstands (Inter-Pupillary Distance, IPD) ermöglicht, was die Klarheit der 3D-Darstellung für den Nutzer verbessert.

Die Integration von Augen-Trackern in HMDs stellt jedoch auch eine Reihe von Herausforderungen dar. Ein entscheidender Faktor für die Genauigkeit der Augenverfolgung ist die Platzierung der Kameras innerhalb des Headsets sowie die Lichtverhältnisse im HMD. Die Linsen des HMDs emittieren Umgebungslicht, das je nach Inhalt der virtuellen Szene variieren kann. Daher benötigen moderne Augen-Tracker zusätzlich IR-Beleuchtung, um sicherzustellen, dass die Kameras auch bei wechselnden Lichtverhältnissen präzise arbeiten. Diese IR-Beleuchtung wird oft durch eine Reihe von Mikro-LEDs bereitgestellt, die um die Linsen des HMDs angeordnet sind. Zudem müssen die Systeme über ausreichend Energie verfügen, um sowohl die Kameras als auch die IR-Beleuchtung zu betreiben, was in tragbaren Geräten wie dem Oculus Quest 2 zusätzliche Anforderungen an das Energiemanagement stellt.

Ein weiterer wichtiger Aspekt bei der Entwicklung dieser Technologien ist der Einfluss der Verarbeitungskapazitäten des HMD-Prozessors. Ältere All-in-One-Systeme, wie das Oculus Quest 2, erforderten ein separates Gerät zur Datenübertragung des Augen-Trackers an einen externen Computer. Diese Lösung brachte zusätzliche Komplexität und Gewicht mit sich. Neuere Modelle, wie das Oculus Quest Pro, haben diese Herausforderungen durch die Verwendung des leistungsfähigeren Snapdragon XR2 Prozessors gemeistert, der in der Lage ist, die Augenverfolgung direkt zu integrieren, ohne auf externe Hardware angewiesen zu sein.

Zusätzlich zur Optimierung der Hardware müssen auch Software und Algorithmen ständig weiterentwickelt werden, um die Genauigkeit der Augenverfolgung und der Positionsbestimmung zu verbessern. Der Einsatz von Algorithmen, die das Zusammenspiel zwischen visuellen Daten, Inertialmessungen und Augenbewegungen effizient koordinieren, ist entscheidend, um die Reaktionszeit zu minimieren und eine nahtlose Benutzererfahrung zu gewährleisten. Die ständige Verbesserung dieser Systeme ist auch aus der Perspektive der Benutzerinteraktion von Bedeutung, da eine präzise Verfolgung nicht nur für das VR-Erlebnis selbst, sondern auch für Anwendungen wie Augensteuerung und die Analyse von Benutzerverhalten von großer Relevanz ist.

Insgesamt lässt sich sagen, dass die Kombination von visuellen und inertialen Tracking-Technologien sowie die Integration von Augenverfolgung eine der entscheidenden Säulen für den Erfolg moderner VR-Systeme ist. Sie ermöglichen es den Nutzern, auf eine natürliche und intuitive Weise mit der virtuellen Umgebung zu interagieren und fördern somit das Wachstum und die Weiterentwicklung von VR-Anwendungen in verschiedenen Bereichen, von Unterhaltung über Bildung bis hin zu professionellen Anwendungen.

Wie die Verarbeitung von 3D-Audio und räumlichem Klang in modernen HMDs und Lautsprechersystemen funktioniert

Die Verarbeitung von 3D-Audio in modernen Geräten, insbesondere in Head-Mounted Displays (HMDs) und Lautsprechersystemen, stellt eine der anspruchsvollsten Herausforderungen in der Audio-Technologie dar. Hierbei spielen GPUs und spezialisierte digitale Signalprozessoren (DSPs) eine zentrale Rolle. Eine interessante Möglichkeit, diese Herausforderung zu meistern, besteht darin, Audiodaten in der Texturspeicherung einer GPU abzulegen und dann spezielle Renderdurchläufe zur Berechnung der 3D-Audio-Effekte zu nutzen. Diese Technik nutzt die Ähnlichkeiten zwischen der Architektur der GPUs und den DSPs, die normalerweise in dedizierten 3D-Audio-Hardwarekomponenten verwendet werden, um eine effiziente Berechnung und Echtzeitverarbeitung von 3D-Audio zu ermöglichen (Hamidi und Kapralos 2009).

Ein bemerkenswerter Anwendungsfall dieser Technologie findet sich in All-in-One HMDs wie dem Quest 2. Diese Geräte verwenden einen speziellen Hexagon-DSP-Prozessor, der in den Snapdragon XR2-Chip integriert ist. Der Hexagon DSP ist besonders auf mobile Anwendungen ausgelegt, bei denen eine Minimierung des Energieverbrauchs erforderlich ist, um die Akkulaufzeit zu verlängern (Qualcomm Technologies 2022). Um die Leistung zu optimieren, arbeitet der Hexagon DSP mit niedrigen Taktraten und bleibt dabei in der Lage, niedrige Latenzen aufrechtzuerhalten. Diese Architektur, die als „Very Long Instruction Word“ (VLIW) bezeichnet wird, ermöglicht es, mehrere Anweisungen pro Taktzyklus abzurufen und parallel auszuführen. Diese Parallelisierung ist für die Echtzeitverarbeitung von 3D-Audio essenziell, insbesondere wenn es darum geht, die Position von Klangquellen in einer virtuellen Umgebung zu bestimmen, basierend auf der Kopfbewegung des Nutzers (Codrescu et al. 2014).

Für die Genauigkeit der 3D-Audio-Wiedergabe in einem HMD wie dem Quest 2 ist jedoch der Platz der Lautsprecher von großer Bedeutung. Die eingebauten Lautsprecher sind in der Kopfbandstruktur integriert, was die Herstellung vereinfacht und die Systemkomplexität reduziert. Diese Positionierung ist jedoch suboptimal für die genaue Klanglokalisierung und beeinflusst die Wahrnehmung von nicht-lokalisierten Klangereignissen. Um die Klangqualität zu verbessern, wurden spezielle Silikon-Ohrmuscheln entwickelt, die an das Quest 2-Headset angepasst werden können. Diese Muscheln verbessern die Klangführung, indem sie den Schall von den Schläfen des Nutzers zum äußeren Ohr leiten, wodurch der Klang präziser wahrgenommen werden kann (Knoxlabs 2024). Allerdings erhöht die zusätzliche Ausstattung das Gewicht des Geräts, was für manche Nutzer unangenehm sein kann.

Neben den integrierten Lautsprechern gibt es auch die Möglichkeit, externe Kopfhörer an das Quest 2 anzuschließen, um eine noch präzisere 3D-Audio-Erfahrung zu erzielen. Diese Option ist besonders dann vorteilhaft, wenn eine höhere Klangtreue gewünscht wird, da Kopfhörer eine isolierte und direktere Audiowiedergabe ermöglichen.

Eine andere Möglichkeit, 3D-Audio zu erzeugen, bieten Lautsprechersysteme, die nicht in ein HMD integriert sind. Diese Systeme, die auf PCs oder externen Lautsprechern basieren, erfordern keine Kopfverfolgung, sondern gehen davon aus, dass sich der Nutzer in einer festen Position befindet. Die Genauigkeit der Klanglokalisierung in solchen Systemen ist daher stark davon abhängig, dass sich der Nutzer in einer sogenannten „Sweet Spot“-Zone befindet. In dieser Zone kann der Klang präzise lokalisiert werden, was eine gute azimutale Lokalisierung ermöglicht. Doch da auch hier eine gewisse Krosstalk-Problematik auftritt, da jeder Lautsprecher Ton an beide Ohren sendet, ist die mathematische Modellierung für die Klangverarbeitung deutlich komplexer als bei Kopfhörern (Duda 1987).

Für die Verbesserung der 3D-Audio-Darstellung auf Lautsprechersystemen nutzen viele moderne Systeme sogenannte HRTFs (Head-Related Transfer Functions), die die Schallwellen simulieren, wie sie durch den Kopf und die Ohren des Nutzers moduliert werden. Diese Daten werden dann verwendet, um den Schall so zu gestalten, dass er aus einer bestimmten Richtung zu kommen scheint, wodurch eine räumliche Klangwahrnehmung erzeugt wird. Dies kann jedoch nur in einer Zone funktionieren, in der die Kopfposition des Nutzers konstant bleibt. Außerhalb dieser Zone werden die HRTFs möglicherweise nicht korrekt angewendet, was zu einer Verschlechterung der Klanglokalisierung führt.

Ein weiteres bemerkenswertes System für 3D-Audio bietet tragbare Geräte wie die „SoundSlayer“-Nackenbänder, die als tragbare Lautsprecher fungieren. Diese Geräte haben den Vorteil, dass sie dem Nutzer die Freiheit geben, sich im Raum zu bewegen, ohne die Notwendigkeit, sich in einer festen Position zu befinden. Das „SoundSlayer“-Gerät von Panasonic zum Beispiel ist mit vier Lautsprechern ausgestattet, die an unterschiedlichen Positionen am Körper des Nutzers platziert werden. Diese Geräte bieten eine gute Möglichkeit, 3D-Audio in einem tragbaren Format zu erleben, auch wenn ihre Mobilität durch Kabel begrenzt wird (OldnWise 2021). Die Herausforderung bei tragbaren Geräten ist jedoch häufig das Gewicht und die Einschränkungen bei der Bewegungsfreiheit, da die Geräte oft an den Körper gebunden sind und Kabel eine gewisse Flexibilität einschränken.

Für eine bessere Klangwiedergabe ist es zudem entscheidend, dass sowohl die Lautsprecher als auch die verwendete Technologie zur Signalverarbeitung die korrekten akustischen Informationen liefern. So sind in einigen fortschrittlichen Systemen wie den beschriebenen PC-Karten von Dolby Digital komplexe Berechnungen erforderlich, um die Richtung von Schallquellen genau wiederzugeben. Diese Systeme erfordern jedoch zusätzliche Rechenleistung, die die Performance des Systems beeinflussen kann, insbesondere wenn komplexe 3D-Audio-Effekte in Echtzeit berechnet werden müssen. Dies kann zu einer Verringerung der Bildwiederholrate führen, wenn die CPU mit der Verarbeitung von Audio- und Grafikdaten überlastet wird.

Insgesamt bleibt die Herausforderung bei der 3D-Audio-Technologie die Balance zwischen Leistung und Energieverbrauch, insbesondere bei tragbaren Geräten. Die ständige Weiterentwicklung von DSPs, GPUs und tragbaren Lautsprechersystemen wird es jedoch ermöglichen, die Qualität der Audio-Erlebnisse weiter zu verbessern und die Anforderungen an die Rechenleistung zu optimieren.

Wie kann Geruch in die virtuelle Realität integriert werden?

Die Integration olfaktorischer Reize in virtuelle Realitäten ist ein technischer und sensorischer Grenzbereich, der sich in den letzten Jahren erheblich weiterentwickelt hat. Zwei exemplarische Geräte – das ReminiScent-Halsband und das ION-System von OVR Technology – verdeutlichen eindrucksvoll, wie Geruch als immersive Komponente in VR-Szenarien eingebettet werden kann.

Das ReminiScent ist ein modular aufgebautes Duft-Halsband, dessen Einheiten mit Klettverschlüssen an einem tragbaren Trägerelement befestigt werden. Jede dieser Einheiten besteht aus einem leichten Kunststoffgehäuse, in dem sich eine Duftscheibe befindet, die auf einer quadratischen Basis einrastet. Die Duftfreisetzung erfolgt über molekularen Fluss, was eine kontrollierte und sanfte Ausbreitung des Aromas erlaubt. Mit einem Gesamtgewicht von 226 Gramm bei vier eingesetzten Duftmodulen bleibt das Gerät im tragbaren Rahmen, kann aber bis zu zehn Module gleichzeitig tragen. Die Weiterentwicklung dieses Konzepts zeigt, wie Mobilität, Modularität und sensorische Präzision miteinander verschmelzen können, um die emotionale Tiefe virtueller Erfahrungen zu erhöhen. Die Verbindung mit Erinnerungen, therapeutischen Anwendungen oder emotionalen Szenarien im virtuellen Raum wird durch gezielt eingesetzte Düfte intensiviert.

Im Gegensatz dazu steht das ION-System, das direkt an VR-Headsets montiert wird. Es ist rechteckig-prismatisch geformt und wird an der Unterseite von HMDs befestigt, wobei der der Nase zugewandte Teil offen bleibt. Links und rechts dieser Öffnung befinden sich zwei Module: Eines beherbergt die austauschbare Duftkartusche, das andere die Steuerelektronik, Kommunikationseinheiten (Bluetooth und Wi-Fi) sowie einen wiederaufladbaren Akku. Die Kartusche besteht aus neun einzelnen Behältern, die unterschiedliche wasserbasierte Duftstoffe enthalten. Die Duftfreisetzung erfolgt mittels Piezo-Vibrationen, wodurch eine äußerst präzise und feine Abgabe ermöglicht wird. Die Besonderheit liegt in der extrem schnellen Schaltzeit – das System erlaubt Duftimpulse von nur 0,1 Millisekunden Dauer, mit der Fähigkeit, mehrere Düfte pro Sekunde zu wechseln. Diese technische Raffinesse sorgt nicht nur für ein hohes Maß an sensorischer Dynamik, sondern auch dafür, dass einzelne Düfte schnell verfliegen, was die Darstellung von Szenenwechseln oder komplexen Geruchskombinationen erlaubt.

Ein Beispiel aus einer typischen Anwendungsszene veranschaulicht das: In einer Lagerfeuer-Simulation wird zunächst der Duft von brennendem Holz verströmt. Wenn der Nutzer sich dann einer virtuellen Marshmallow-Stange nähert, wechselt der Geruch sekundenschnell zu verbranntem Zucker, was eine nuancierte sensorische Täuschung erzeugt. Diese Präzision unterscheidet das ION signifikant von früheren Lösungen wie Luftkanonen oder statischen Diffusionssystemen.

Jedoch bringt diese Integration auch physische Herausforderungen mit sich. Das zusätzliche Gewicht von 130 Gramm an einem ohnehin kopflastigen Headset wie der Quest 2 oder Quest 3 – die selbst bereits rund 500 Gramm wiegen – stellt eine ergonomische Belastung dar, die vor allem bei nicht-ausbalancierten, verbraucherorientierten HMDs zu einem Problem werden kann. Die Platzierung der Masse direkt am Nasenrücken kann bei längerer Nutzung zu Unbehagen führen und damit den immersiven Charakter der Anwendung untergraben.

Auch wenn OVR Technology betont, dass das ION-System besonders für angenehme Düfte ausgelegt sei, bleiben unangenehme Gerüche eine Herausforderung. Diese werden vom menschlichen Geruchssinn sensibler wahrgenommen und schwerer toleriert, insbesondere bei längeren Simulationszeiten. Darüber hinaus wurde eine gewisse Geruchsresistenz festgestellt, selbst wenn alle Kartuschen geschlossen sind – ein Hinweis darauf, dass vollständige Neutralität technisch noch nicht vollständig erreicht wurde.

Die Entwicklung olfaktorischer Schnittstellen befindet sich an einem Punkt, an dem technische Innovation und sensorische Psychologie eng miteinander verwoben sind. Die Fähigkeit, Gerüche gezielt und kontrolliert in Echtzeit zu erzeugen, zu modulieren und in komplexe Szenarien zu integrieren, eröffnet neue Möglichkeiten nicht nur im Bereich der Unterhaltung, sondern auch in der Therapie, Bildung und im Training sensibler Situationen. Doch zugleich verdeutlicht sie die Notwendigkeit, technologische Eleganz mit physiologischer Verträglichkeit in Einklang zu bringen. Eine zu starke Belastung durch Gewicht oder persistente Restgerüche könnte den Effekt der Immersion unterlaufen, anstatt ihn zu verstärken.

Wichtig ist zu verstehen, dass diese olfaktorischen Systeme nicht isoliert betrachtet werden dürfen. Ihre Wirksamkeit entfaltet sich erst im Zusammenspiel mit auditiven, visuellen und haptischen Reizen – also im orchestrierten Zusammenspiel aller sensorischen Kanäle. Zudem wird zukünftige Forschung verstärkt untersuchen müssen, wie sich neuronale Interfaces entwickeln lassen, die olfaktorische Wahrnehmung direkt im Gehirn auslösen – ohne reale Duftmoleküle. Das könnte nicht nur technische Limitierungen umgehen, sondern auch das Verständnis menschlicher Wahrnehmung fundamental verändern.