Moderne Virtual‑Reality‑Systeme bieten beeindruckende visuelle und auditive Eindrücke, doch das haptische Erleben – das tatsächliche Fühlen von Objekten und Oberflächen – bleibt oft rudimentär: Häufig beschränken sich Systeme auf einfache Vibrationsmotoren oder vage Warnsignale bei Kollisionen. Solche Ansätze reichen kaum aus, um etwa eine Wand, ein Geländer oder eine Möbelkante realistisch zu simulieren. Genau hier setzt das Konzept von Wireality an: ein tragbares Multi‑String‑Haptiksystem, das einzelnen Fingergelenken erlaubt, gezielt in 3D‑Räumen angehalten zu werden, um so komplexe geometrische Formen physisch erfahrbar zu machen. ACM Digital Library+2futureinterfaces.com+2

Der technische Kern besteht aus mehreren modularen Einheiten, in denen federbelastete Kabel installiert sind, die sich per Sperrmechanismus verriegeln lassen. Diese Verriegelung erfolgt mit einer Geschwindigkeit unter 30 ms und kann Kräfte bis zu etwa 180 N erzeugen, bei minimalem Energieverbrauch von nur 0,024 mWh pro Aktuierung. futureinterfaces.com+2ResearchGate+2 Jede Modul übernimmt die Kontrolle über eine Freiheit (Degree of Freedom) des Fingerbewegungsraums; in der Zusammenschaltung mehrerer Module entsteht so die Fähigkeit, komplexe Objekte in verschiedenen Ausrichtungen greifbar zu blockieren. ResearchGate+2futureinterfaces.com+2 Obwohl die Mechanik insgesamt 273 g wiegt, fällt davon nur ein geringes Gewicht – etwa 11 g – direkt auf die Hände, wodurch das System vergleichsweise leicht bleibt. futureinterfaces.com+1

Wireality ermöglicht dadurch unter anderem, dass ein Nutzer seine Finger um ein virtuelles Geländer schlingen kann oder eine Tischkante spürt und nicht einfach hindurchgreift. Ferner lassen sich auch Interaktionen mit virtuellen Bedienelementen wie Tasten, Hebeln oder Bildschirmen realisieren – wenngleich die derzeitige Version in ihrer Unterstützung von mehrstufigen oder Compliance‑Mechanismen (z. B. federnden Rückstellungen) noch Limitationen zeigt. ResearchGate+1 Doch selbst in ihrer aktuellen Ausprägung erreicht das System überzeugende haptische Effekte wie High‑Five, Händeschütteln oder leichte Stupser. ResearchGate+1

Natürlich ergeben sich aus dieser Herangehensweise auch Grenzen: Die erzeugten Kräfte wirken ausschließlich senkrecht zur Körperachse – eine vollständige Richtungsfreiheit ist derzeit nicht gegeben. Dennoch ist diese Einschränkung praktisch weniger gravierend, da Nutzer Objekte im virtuellen Raum meist frontal ansteuern. Bei schrägen Flächen wird der senkrechte Rückstoß subjektiv oft als Reibung interpretiert. ResearchGate+2futureinterfaces.com+2 Ebenfalls kritisch ist, dass das System noch nicht alle Formen von Objekten realitätsnah darstellen kann, insbesondere wenn mehrere Freiheitsgrade simultan blockiert werden oder Oberflächen komplexe Konturen besitzen. ResearchGate+1

Ein wesentlicher Unterschied zu klassischen haptischen Systemen (z. B. Force‑Feedback‑Exoskelette oder Bodeninstallationen) besteht darin, dass Wireality vollständig mobil und autark ist – keine externe Infrastruktur oder feste Vorrichtungen sind nötig. Damit erfüllt es zentrale Designziele für zukünftige Alltagsanwendungen: geringe Masse, niedriger Energieverbrauch, relative Kostengünstigkeit und tragbare Bauweise. futureinterfaces.com+1

Darüber hinaus gewinnen Methoden zur Echtzeitdeformationsberechnung und Hand‑Objekt‑Interaktion an Bedeutung, wenn es darum geht, nicht nur starre Geometrien, sondern weiche, formveränderliche Objekte realistisch darzustellen. So erlauben neuere Ansätze wie PhysHand eine strukturierte Modellierung von Haut, Gewebe und Skelett sowie eine intelligente Kontaktbehandlung mittels multiauflösender Abfragen, um Penetrationen zu minimieren und realistische Rückstellkräfte zu generieren. arXiv Auch Frameworks, die simultan Handpose‑Erkennung, Objektrekonstruktion und Deformation fusionieren, zeigen Wege auf, wie Haptik und Sicht in Echtzeit verschränkt werden können. ACM Digital Library

Welche Faktoren beeinflussen die Gestaltung von haptischen Schnittstellen in virtuellen Umgebungen?

Der Arbeitsbereich eines haptischen Geräts hängt maßgeblich von dem eingesetzten Gerät ab. So ist der Maximalarbeitsbereich beim Touch (oder Omni) mit 431 W × 348 H × 165 T mm deutlich größer als beim Touch X (oder Phantom Desktop) mit 355 W × 228 H × 180 T mm (3D Systems Inc., 2023). In der grafischen Darstellung können sich die Entfernungen des Cursors insbesondere bei großen Displays, wie den in Kapitel 3 beschriebenen Video-Wänden, vergrößern. Sehr kleine physische Bewegungen des Stiftes werden so in größere Bewegungen in der virtuellen Welt übersetzt. Aus diesem Blickwinkel wird die Auflösung der Positionsmessung des haptischen Geräts entscheidend, um Ruckeln des Cursors in der virtuellen Realität zu minimieren. Hier zeigt sich der Touch X im Vorteil, da seine Auflösung bei 0,023 mm liegt und somit doppelt so präzise ist wie die des Touch, dessen Auflösung bei 0,055 mm liegt.

Ein weiterer wichtiger Aspekt beim Vergleich der beiden Hauptgeräte, die von OpenHaptics unterstützt werden, ist die maximale Kraft, die innerhalb ihres Arbeitsbereichs erzeugt werden kann. Hier liegt der Touch X erneut vorn, da er eine maximale Kraft von 7,9 N erzeugen kann, während der Touch nur 3,3 N erreicht. Entwickler müssen sich bewusst sein, dass diese maximale Kraft nicht gleichmäßig im gesamten Arbeitsbereich des Geräts verteilt ist. Sie ist nur in einem Teilbereich des Arbeitsbereichs garantiert, der als „Usable Workspace“ bezeichnet wird. Die folgenden Skripte zeigen, wie mit der HDAPI der Usable Workspace und der maximale Arbeitsbereich eines Geräts ermittelt werden können:

cpp
HDdouble aUsableWorkspace[6]; // Deklarationen HDdouble aMaxWorkspace[6]; hdGetDoublev (HD_USABLE_WORKSPACE_DIMENSIONS,   aUsableWorkspace); hdGetDoublev(HD_MAX_WORKSPACE_DIMENSIONS,   aMaxWorkspace);

Darüber hinaus müssen Entwickler berücksichtigen, dass die Skalierung Auswirkungen auf das haptische Gefühl der Objekte hat, insbesondere in Bezug auf deren Steifigkeit und Dämpfung. Mit einem gegebenen Skalierungsfaktor SfrustumS_{frustum} gemäß der Gleichung (7.3) müssen neue Koeffizienten für Steifigkeit und Dämpfung berechnet werden, wie in den Gleichungen (7.4) und (7.5) dargestellt:

Sfrustum=DxmaxDtouchmaxS_{frustum} = \frac{D_{xmax}}{D_{touchmax}}

Die Berechnungen in den Gleichungen (7.4) und (7.5) beziehen sich auf die Anpassung der Steifigkeit und Dämpfung an den jeweiligen Arbeitsbereich und die physikalischen Eigenschaften des Geräts.

Ein weiteres zentrales Thema ist die Unterstützung von Unity 3D durch OpenHaptics, die Entwicklern ermöglicht, haptisches Feedback mit Touch oder Touch X sowie Phantom-Sechs-DOF-Schnittstellen in ihre virtuellen Umgebungen zu integrieren. Der dafür benötigte Haptics Direct-Plugin von OpenHaptics für Unity 3D ermöglicht es, Haptik in Unity 2019 und späteren Versionen zu verwenden, wobei Windows 10 (64-Bit) als Betriebssystem vorausgesetzt wird. Die Unterstützung für mehrere haptische Geräte wird durch die Zuweisung von Geräten für die linke und rechte Hand erleichtert.

Die Komponenten des Haptics Direct-Plugins umfassen unter anderem die „Documentation“, „FeaturesScenes“, „HapticPlugin“, „HapticScripts“, „Prefabs“ und „Resources“. Die FeaturesScenes beinhalten Beispiele für unterschiedliche haptische Materialien, die auf dem Bildschirm sichtbar sind, und bieten den Entwicklern die Möglichkeit, diese zu berühren und ihre haptischen Eigenschaften zu erleben. Teil dieser Featurescenes ist ein Maldemo, bei dem der Benutzer Objekte wie eine flache Oberfläche und eine Kugelform bemalt und dabei die Unterschiede im haptischen Feedback spürt.

Zur Interaktion mit den haptischen Geräten aus der Unity-Engine heraus bietet der Ordner „HapticScripts“ verschiedene Skripte wie „HapticCollider.cs“, „HapticMaterial.cs“ und „VirtualHaptics.cs“. Diese ermöglichen unter anderem die Steuerung des virtuellen haptischen Modells und die Weiterleitung von Kollisionsinformationen an das HapticPlugin. Der Ordner „Prefabs“ enthält vorkonfigurierte Modelle von HapticActors für den Touch und Touch X, während der Ordner „Resources“ 3D-Modelle und Texturen für Demo-Szenen bietet.

In einer Unity 3D-Szene, die haptisches Feedback implementiert, kann beispielsweise ein berührbares weißes Kaninchenobjekt dargestellt werden, das durch den Kontakt mit einem virtuellen Stylus hervorgehoben wird. Diese Darstellung hilft dabei, das haptische Interface sichtbar zu machen, indem der Benutzer den physikalischen Kontakt mit dem Objekt und dessen Widerstand fühlen kann.

Wichtig ist, dass die haptische Wahrnehmung nicht nur durch den physikalischen Kontakt mit den Objekten bestimmt wird, sondern auch durch die visuelle Darstellung der Interaktion. Der Benutzer erhält durch die Verbindung von physischem Feedback und visuellen Hinweisen ein vollständiges haptisches Erlebnis, das sowohl den Kontakt als auch die Kraft, die beim Berühren des Objekts erzeugt wird, wiedergibt.

Die Integration haptischer Technologien in Unity stellt daher nicht nur eine Herausforderung in der technischen Umsetzung dar, sondern auch in der Art und Weise, wie das haptische Feedback mit der virtuellen Welt synchronisiert wird, um den Benutzern ein realistisches und ansprechendes Erlebnis zu bieten.

Wie entsteht das Gewicht virtueller Objekte ohne echte physische Kräfte?

Sensorische Illusionen entstehen dann, wenn die Rückmeldung eines Sinneskanals zu einer Wahrnehmung in einem anderen, eigentlich nicht aktivierten Sinneskanal führt. Diese Illusionen beruhen auf dem Phänomen der Dominanz bestimmter Sinnesmodalitäten – etwa der visuellen – gegenüber schwächeren oder fehlenden Rückmeldungen anderer Kanäle wie haptischer oder auditiver Feedbacksysteme. In virtuellen Umgebungen kann dies gezielt genutzt werden, um etwa das Gefühl von Gewicht, Härte oder auch Temperatur hervorzurufen, obwohl keine entsprechenden physikalischen Kräfte oder Reize tatsächlich vorhanden sind.

Ein klassisches Beispiel ist die visuelle Täuschung des Gewichts. Wenn ein Benutzer in einer virtuellen Realität (VR) einen virtuellen Ballon aufhebt, der angeblich mit Wasser gefüllt ist, so lässt sich allein durch die visuelle Verzögerung in der Reaktion des Objekts eine Illusion von Gewicht erzeugen. Der virtuelle Ballon bleibt zunächst statisch, während eine virtuelle Feder sichtbar gedehnt wird. Erst nach dieser visuellen "Vorspannung" bewegt sich der Ballon synchron zur Handbewegung. Diese kleine Inszenierung reicht aus, um im Gehirn eine vertraute Assoziation zu erzeugen: Der Ballon wirkt schwer. Das visuelle System dominiert die multisensorische Integration und übersteuert das Fehlen haptischer Rückmeldung.

Bereits frühe Experimente bestätigten diese Mechanismen. In einer Studie von Biocca et al. (2001) verwendeten Teilnehmer ein Head-Mounted Display (HMD) sowie PinchGloves zur Objektmanipulation. Obwohl keine taktile Rückmeldung vorlag, berichteten 30 % der Probanden, dass sie das Gewicht virtueller Objekte zumindest gelegentlich spürten – allein durch die visuelle Rückmeldung über virtuelle Federn und Bewegungsverzögerung.

Spätere Forschung entwickelte die Methode der Pseudo-Haptik weiter, insbesondere durch Modifikation des sogenannten Control-to-Display-Ratio (C/D-Ratio). Dieses Verhältnis beschreibt das Verhältnis zwischen der Bewegung eines Eingabegeräts – beispielsweise einer realen Hand – und der Bewegung des entsprechenden virtuellen Objekts. Ein kleinerer C/D-Wert bedeutet, dass das virtuelle Objekt sich verzögert oder langsamer als die reale Hand bewegt. Diese künstlich erzeugte Diskrepanz zwischen realer und virtueller Bewegung suggeriert dem Benutzer ein größeres Gewicht oder Trägheit.

In einer Studie von Kim et al. (2022) wurde gezeigt, dass bei einem C/D-Verhältnis von nur 0,05 über 80 % der Probanden eine Gewichtswahrnehmung bei einem virtuellen Würfel berichteten. Sobald das Verhältnis 0,4 oder größer war, sank die Wahrscheinlichkeit dieser Illusion auf unter 10 %. In einer darauf aufbauenden zweiten Untersuchung sollten Teilnehmer zwei visuell identische Würfel anheben und den schwereren identifizieren. Auch hier zeigte sich: Je kleiner das C/D-Verhältnis des "schwereren" Objekts war, desto feiner konnten Unterschiede im Gewicht durch reine visuelle Verzögerung wahrgenommen werden.

Diese Experimente belegen, dass die Illusion von Gewicht allein durch visuelle Modulation erzeugt und sogar differenziert werden kann. Die Stärke der Illusion korreliert direkt mit der Diskrepanz zwischen realer und virtueller Bewegung – eine größere Diskrepanz suggeriert mehr Gewicht, solange die Illusion nicht durch zu große Unglaubwürdigkeit zusammenbricht.

Die Konsequenz für das Design immersiver Systeme ist eindeutig: Wenn haptische Feedbacksysteme technisch oder wirtschaftlich nicht realisierbar sind, kann durch gezielte Manipulation visueller Rückmeldung dennoch ein überzeugendes Gefühl von Materialeigenschaften oder physikalischen Kräften erzeugt werden. Die Effektivität solcher Pseudo-Haptik hängt stark vom Vertrauen in die virtuelle Umgebung ab sowie von der intermodalen Konsistenz der Sinne.

Wichtig ist dabei das Verständnis, dass sensorische Illusionen nur dann entstehen, wenn die Sinneskanäle nicht in offenem Widerspruch zueinander stehen. Das Gehirn ist darauf programmiert, in Konfliktsituationen einem dominanten Kanal zu vertrauen – meist der Vision. Stimmen visuelle und haptische Rückmeldungen nicht überein, wird die visuelle Wahrnehmung bevorzugt, sofern sie plausibel erscheint. Dies erklärt, warum selbst das völlige Fehlen physischer Kräfte nicht zwingend zur Auflösung der Illusion führt – solange die visuelle Szene kohärent bleibt.

Darüber hinaus sollte bedacht werden, dass nicht nur die Illusion von Gewicht, sondern auch von Textur, Härte oder Temperatur durch ähnliche Mechanismen erzeugt werden kann. Auch auditive oder olfaktorische Signale können eine Verstärkung dieser Illusionen bewirken, sofern sie sinnvoll und synchron mit der visuellen Information verknüpft sind.

Der Erfolg solcher sensorischer Täuschungen basiert letztlich auf der Bereitschaft

Wie visuell-olfaktorische Illusionen das virtuelle Erleben beeinflussen

Die Forschung zu multisensorischen Wechselwirkungen in virtuellen Umgebungen hat gezeigt, dass visuelles Feedback in Kombination mit olfaktorischem Feedback das Erleben von Realismus maßgeblich beeinflussen kann. Wenn visuelle und olfaktorische Rückmeldungen kongruent sind, wird die Wahrnehmung des virtuellen Erlebnisses realistischer, wie in der Studie von Gougeh und Falk (2023) gezeigt wurde. Doch was passiert, wenn diese Rückmeldungen inkongruent sind, also wenn visuelle und olfaktorische Eindrücke miteinander in Konflikt geraten?

Olfaktorische Illusionen sind ein faszinierendes Phänomen, das durch einen sensorischen Konflikt zwischen den visuellen und olfaktorischen Reizen entsteht. Sie führen dazu, dass der Teilnehmer einen anderen Geruch wahrnimmt, als der tatsächlich präsentierte. Diese Art der Illusion wird in der wissenschaftlichen Literatur als eine der vielversprechendsten Methoden untersucht, um den Bedarf an einer Vielzahl von Duftbehältern in virtuellen Umgebungen zu verringern. Ein Beispiel für ein solches Experiment ist das „Nioi Café“, das an der Universität von Tokio entwickelt wurde. In diesem Experiment wurde ein Tisch mit leeren weißen Tellern und Tassen verwendet, während ein olfaktorisches Feedback-Gerät unter dem Tisch verbaut war. Auf einem Bildschirm wurden Bilder von Lebensmitteln projiziert, die mit verschiedenen Gerüchen, wie Kaffee, Tee, Apfel und Orange, kombiniert wurden. Bei der Präsentation von Bild und Geruch kam es in vielen Fällen zu einer olfaktorischen Illusion. 50% der Teilnehmer berichteten, einen Orangenduft wahrzunehmen, wenn ein Bild einer Orange auf dem Teller projiziert wurde, während tatsächlich der Geruch von Tee freigesetzt wurde.

Ein wichtiger Faktor, der die Entstehung solcher Illusionen beeinflusste, war die Ähnlichkeit zwischen dem projizierten Bild und dem freigesetzten Duft. Beispielsweise war die Rate der olfaktorischen Illusion bei der Präsentation eines Kaffeegeruchs auf einem Apfelbild deutlich geringer. Dies lässt sich teilweise auf die hohe Bekanntschaft der Teilnehmer mit dem Kaffeeduft zurückführen, wodurch es weniger wahrscheinlich war, dass sie eine Illusion wahrnahmen. Zudem war die Ähnlichkeit zwischen dem Apfelduft und dem Kaffeeduft zu gering, um eine Illusion auszulösen. Diese Erkenntnis führte dazu, dass Forscher begannen, olfaktorische Karten zu entwickeln, um Duftähnlichkeiten zu kategorisieren.

Eine olfaktorische Sinneskarte ist ein Instrument, das verschiedene Düfte nach ihrer Ähnlichkeit ordnet und Entfernungen zwischen den Düften visualisiert. Diese Karten bieten einen Überblick über die Beziehungen zwischen verschiedenen Gerüchen und ermöglichen es, ein repräsentatives Duftmuster für eine Vielzahl von ähnlichen Gerüchen zu erstellen. Ein Beispiel dafür ist die olfaktorische Karte für Fruchtdüfte, die von Nambu et al. (2010) entwickelt wurde. In einem Experiment wurden Teilnehmer gebeten, verschiedene Fruchtdüfte zu bewerten, während ihnen Bilder von Früchten angezeigt wurden. Dabei stellte sich heraus, dass die Illusion eines bestimmten Geruchs, wie zum Beispiel Pfirsich, in fast der Hälfte der Fälle auftrat, wenn das Bild eines ähnlichen, aber anderen Obstes wie Guave oder Melone gezeigt wurde.

Das Prinzip der olfaktorischen Illusionen kann somit helfen, die Anzahl der benötigten Duftbehälter zu reduzieren, was besonders wichtig für die Entwicklung immersiver virtueller Umgebungen ist. Statt für jede einzelne Duftvariation einen eigenen Behälter zu benötigen, können durch das gezielte Spielen mit Ähnlichkeiten und olfaktorischen Karten verschiedene Duftwahrnehmungen mit einer begrenzten Anzahl von Reizen erzeugt werden.

Jedoch ist diese Technik nicht ohne ihre Herausforderungen. Olfaktorische Illusionen sind von der individuellen Wahrnehmung der Teilnehmer abhängig. Was für den einen Teilnehmer als ähnliche Düfte erscheinen mag, kann für einen anderen völlig unterschiedlich wahrgenommen werden. Daher erfordert die Entwicklung universell gültiger olfaktorischer Karten eine umfangreiche Gruppenanalyse, um ein realistisches und konsistentes Erlebnis zu gewährleisten. Zudem wird die Forschung zu olfaktorischem Feedback in VR weiter intensiviert, da noch viele Fragen zu den Wechselwirkungen zwischen visuellen und olfaktorischen Reizen offen sind.

Es ist auch wichtig, die potenziellen Auswirkungen von VR auf die Gesundheit der Nutzer zu berücksichtigen. Während die direkten Effekte auf das visuelle System, wie etwa durch hohe Lichtintensität oder die Verwendung von Infrarot-LEDs in modernen Headsets, bereits bekannt sind, ist die Forschung auf diesem Gebiet noch nicht abgeschlossen. VR-Systeme müssen so entwickelt werden, dass sie die Sicherheit der Nutzer gewährleisten, insbesondere bei längerem Gebrauch.

Insgesamt bietet die Untersuchung von olfaktorischen Illusionen nicht nur spannende Einblicke in die Wahrnehmung des menschlichen Geruchssinns, sondern zeigt auch auf, wie technologische Innovationen die Grenzen des virtuellen Erlebens erweitern können. Ein besseres Verständnis der Mechanismen, die diesen Illusionen zugrunde liegen, könnte dazu beitragen, VR-Erfahrungen noch immersiver und realistischer zu gestalten, mit weniger Hardwareaufwand und einer höheren Nutzerakzeptanz.

Wie kann digitale Rekonstruktion unser kulturelles Erbe bewahren und zugänglich machen?

Die Notwendigkeit, ikonische Kunstwerke zu virtualisieren, entspringt nicht allein technologischen Möglichkeiten, sondern vielmehr einer kulturellen und logistischen Notwendigkeit: Der eingeschränkte Zugang zu physischen Museen, insbesondere für Menschen auf anderen Kontinenten, macht Alternativen erforderlich. Ein eindrückliches Beispiel dieser Entwicklung ist die digitale Rekonstruktion der Florentiner Pietà von Michelangelo – ein Werk, das nicht nur künstlerisch, sondern auch historisch eine besondere Stellung einnimmt.

Die 2,5 Meter hohe Skulptur, Mitte des 16. Jahrhunderts geschaffen, war ursprünglich als Grabmal des Künstlers selbst gedacht. Christus liegt auf dem Schoß der Jungfrau Maria, unterstützt von Maria Magdalena und einer weiteren Figur im Hintergrund, deren Gesicht Michelangelo selbst darstellen soll. Nachdem der Künstler das Werk aus einem einzigen Marmorblock schuf, zerstörte er Teile davon – drei Arme und ein Beinsegment – und überließ das Fragment einem seiner Schüler zur teilweisen Rekonstruktion. Heute steht das Werk in Florenz, doch seine virtuelle Entsprechung ermöglicht eine bislang ungekannte Tiefe der Rezeption.

Das Team von IBM in Zusammenarbeit mit der Temple University setzte für diese digitale Rekonstruktion auf ein aufwendiges Verfahren. Über 4800 strukturierte Lichtbilder und ebenso viele farblich korrelierte Aufnahmen wurden gemacht. Überlappende Segmente von je 20 × 20 cm wurden anhand von Laserpunkten zusammengeführt, anschließend in Meshes überführt, koloriert und mit Reflektionskarten versehen. Das Ergebnis ist ein hochpräzises, millimetergenaues 3D-Modell – eine digitale Verdichtung der physischen Skulptur, die nicht nur das Sichtbare, sondern auch das ursprünglich Zerstörte wieder erfahrbar macht.

Der entwickelte 3D-Viewer balanciert Interaktivität und Detailtreue: Eine niedrig aufgelöste Version sorgt für flüssige Darstellung, während durch gezieltes Anklicken hochauflösende Ausschnitte geladen werden können. Zusätzlich können die Nutzer mit einer virtuellen Taschenlampe Details hervorheben oder den ehemals fehlenden Teil des Beins wiederherstellen – eine Form der virtuellen Restaurierung, die im physischen Raum so nicht möglich wäre.

Dieses Beispiel steht stellvertretend für den umfassenderen Begriff des „Virtuellen Kulturerbes“. Darunter fallen digitale Nachbildungen von Kunstwerken, architektonischen Monumenten und historischen Stätten – auch solchen, die physisch nicht mehr existieren. Diese 3D-Repliken sind nicht bloß Kopien, sondern kulturelle Artefakte eigener Art, die dauerhaft erhalten und geschützt werden müssen. Die UNESCO hat seit 1972 das reale Kulturerbe unter Schutz gestellt; das digitale Pendant erfordert nun eine vergleichbare institutionelle Anerkennung und Verantwortung.

Digitale Kulturerbeprojekte sind stets ein Zusammenspiel aus technischer Präzision und kultureller Sensibilität. Die Repliken müssen nicht nur in Form und Farbe stimmen, sondern auch den immateriellen Kontext transportieren – die soziale, historische, ja emotionale Tiefe eines Ortes oder Objekts. Ein