Unterhaltungen mit Objekten: Die Verkörperung von Konversationsagenten in virtuellen Museen

Virtuelle Museen eröffnen neue Wege der Wissensvermittlung, doch wie sollten digitale Guides gestaltet sein, um Nutzer:innen bestmöglich zu begeistern? In Speaking with Objects erforschen wir zwei verschiedene Ansätze: einen stilisierten humanoiden Guide und eine interaktive Darstellung von Museumsobjekten, mit denen Besucher:innen direkt sprechen können. Unsere Studie zeigt, dass animierte Objekte besonders anregende und interaktive Erlebnisse ermöglichen. Sie fördern das gezielte Nachfragen und schaffen eine lebendige, emotionale Verbindung zu den Exponaten. Gleichzeitig bieten humanoide Guides eine bewährte Möglichkeit, strukturiert Hintergrundwissen zu vermitteln. Unsere Forschung hilft dabei, immersive Museumserlebnisse noch zugänglicher, interaktiver und fesselnder zu gestalten.
Ausgezeichnet mit "Best Conference Paper - Honorable Mention" auf IEEE ISMAR 2024.
Ausgezeichnet mit "Best Demo Award" auf der VRST 2024.
Weitere Information zum Paper sind hier zu finden.
Weitere Information zur Demo sind hier zu finden.
Maschinenphilosophie bei Guattari und Klee

Unsere angestrebte Form der Wissensvermittlung, eine umfängliche Immersion in neuartige Lernräume, erprobt Alternativen zur jahrhundertelang tradierten Form der linearen Lektüre von Texten. Nicht nur die Nutzer:innen werden dadurch aktiver, auch ihre Umwelt – also das Interieur des Gropiuszimmers – beginnt zu sprechen und sich zu bewegen. Von einer ‘analogen’ Welt betritt man eine ‘digitale’, in der andere Möglichkeiten stecken und neue Herausforderungen an die Tür klopfen. Doch ist unsere Umwelt wirklich so passiv und wird erst durch Virtual Reality und Sprachassistenten animiert, oder begannen uns vermeintliche Objekte schon viel früher zu bezirzen? Können digitale und analoge Umwelten überhaupt voneinander getrennt werden? Welche gesellschaftskritischen Aspekte, welche Chancen und Implikationen lassen sich aus diesen Überlegungen ableiten?
Das Spannungsverhältnis von Menschen und ihrer technischen Umwelt untersuchen wir unter anderem anhand der Schriften des Maschinenphilosophen Félix Guattari und des Bauhaus-Meisters Paul Klee. Diese auch auf internationalen Konferenzen in Paris, Delft und Belgrad vorgestellte, theoretische Forschung mündete in einem Aufsatz und einen 2025 erscheinenden Band mit erstmals auf Deutsch vorliegenden Texten Félix Guattaris zu Architektur und Urbanismus.
Weitere Informationen zu Aufsatz und Buchprojekt sind hier zu finden.
"Excuse Me": Große Gruppen in Kleinen Räumen

Auch in der virtuellen Welt kann es eng werden – besonders, wenn viele Besucher:innen gleichzeitig das Gropiuszimmer erkunden. Während wir uns in der Realität nur auf die Zehenspitzen stellen oder die Person vor uns bitten können, einen kleinen Schritt zur Seite zu machen, bietet Virtual Reality magische Möglichkeiten, die Sicht auf die Umgebung zu verbessern. In unserer Arbeit untersuchen wir vier innovative Techniken, die die Sicht in überfüllten virtuellen Räumen optimieren. Dazu gehören das gezielte Transparentmachen anderer Nutzer:innen, das Verschieben von Personen zur Seite, eine skalierte Darstellung anderer, sowie Möglichkeiten zur Anpassung der eigenen Höhe. Unsere Studie zeigt, dass es keine perfekte Lösung gibt – je nach Kontext bieten unterschiedliche Techniken Vorteile. Während Transparenz sich besonders für schnelle Suchen eignet, wird die Höhenanpassung als besonders natürlich empfunden. Unsere Forschung hilft dabei, virtuelle Museumsbesuche noch angenehmer und zugänglicher zu gestalten.
Weitere Information zum Paper sind hier zu finden.
Beredte Tische und swingende Teppiche

Im Rahmen der transdisziplinären Konferenz Assistenten, Avatare, Atmosphären. Perspektiven des Animismus in Medienwissenschaft und Medienkunst an der Bauhaus-Universität Weimar (24.–26. Januar 2024) ergänzten wir vorrangig philosophisch-theoretische Forschung zur belebten technischen Umwelt um “Beredte Tische und swingende Teppiche: Immersiver Wissenszugang am Beispiel des Gropiuszimmers” – eine partizipative Präsentation im VR-Lab der Professur “Virtuelle Realität und Visualisierung”. Nach einleitenden Worten zu animistischen Potenzialen unseres Projekts konnten die Konferenzteilnehmer:innen den aktuellen Stand von MetaReal austesten sowie Perspektiven und Herausforderungen unseres Ansatzes eines immersiven Wissenszugangs diskutieren.
Weitere Informationen zur partizipativen Präsentation sind hier zu finden.
Mensch-Maschinen-Kollaboration zum Erzeugen von Wissensgraphen aus natürlicher Sprache

Enzyklopädische Wissensgraphen wie Wikidata beherbergen einen umfangreichen Fundus von Millionen von Wissensaussagen. Fachspezifisches Wissen aus Bereichen wie Geschichte, Physik oder Medizin ist in diesen Graphen jedoch deutlich unterrepräsentiert. Obwohl es nur wenige domänenspezifische Wissensgraphen gibt (z. B. Pubmed für Medizin), müssen für die Entwicklung spezialisierter Retrieval-Anwendungen für viele Domänen immer noch Wissensgraphen von Grund auf neu erstellt werden. Um die Erstellung von Wissensgraphen zu erleichtern, stellen wir WAKA vor: eine Webanwendung, die es Domänenexperten ermöglicht, Wissensgraphen über das Medium zu erstellen, mit dem sie am meisten vertraut sind: natürliche Sprache.
Weitere Information zum Paper sind hier zu finden.
Weitere Information zur Demo sind hier zu finden.
MetaReal Interview

Im Rahmen unseres MetaReal-Workshops wurde unser Team zu den zentralen Forschungsaspekten, den größten Herausforderungen und der übergeordneten Vision von MetaReal befragt. In diesem Video teilen Prof. Benno Stein (Professur für Intelligente Informationssysteme), Prof. Bernd Froehlich (Professur für Virtuelle Realität und Visualisierung), Prof. Volker Rodehorst (Professur für Computer Vision in Engineering) und Wolfgang Broll (Fachgebiet Virtuelle Welten und Digitale Spiele) ihre Perspektiven und erklären, was MetaReal einzigartig macht.
Hier geht es zum Video.
Wie kann man Nutzer dazu bringen Fragen zu stellen?
Wie könnte ein sprachgestütztes dialogorientiertes Informationssystem den Informationssuchenden unterstützen, wenn dieser nicht weiß, wie er das Gespräch fortsetzen soll? Das System könnte explizit eine Frage vorschlagen. Diese jedoch nach jeder Antwort zu stellen ist aber schnell einschränkend, repetitiv und unterbricht das Eintauchen in das Gespräch. In diesem Beitrag erforschen wir zum ersten Mal unaufdringliche syntaktische und auditive Modifikationen von mündlichen Systemantworten, um Informationssuchende dazu zu bewegen, Fragen zu bestimmten Themen zu stellen. Wir berichten über die Ergebnisse einer Crowdsourcing-Studie mit 965 Teilnehmern, in der die Wirksamkeit und die Nachteile verschiedener Modifikationen in drei Informationsszenarien untersucht wurden.
Weitere Information zum Paper sind hier zu finden.
UniteXR: Gemeinsame Erkundung eines realen Museums und seiner digitalen Kopie

Wie können Besucher:innen vor Ort und aus der Ferne gemeinsam ein Museum erleben? Im MetaReal-Projekt steht das hybride Museum im Fokus – die Verbindung von realen Orten mit ihren digitalen Zwillingen. Die Herausforderung besteht darin, AR- und VR-Nutzer:innen korrekt in die Welt des anderen einzubetten und gegenseitige Awareness zu schaffen. Dazu müssen beide Nutzer:innen repräsentiert und Visualisierungstechniken eingesetzt werden, um die asymmetrischen Geräteunterschiede auszugleichen und die gemeinsame Kollaboration zu verbessern.
In unserer Arbeit haben wir zwei Methoden entwickelt: eine Mini-Map und eine Kompassnadel mit Pfad. Zudem zeigt unsere Studie, dass die Darstellung und Animation der AR-Nutzer:innen als inverse Kinematics (IK) Avatare natürliche Gesten wie Zeigen und Winken ermöglicht – und dadurch das soziale Erlebnis sowie die Zusammenarbeit zwischen Vor-Ort- und Remote-Besucher:innen verbessert.
Weitere Information zum Paper sind hier zu finden.
ARIKA: Realistische Avatare für Smartphone-AR im MetaReal-Projekt

Das Zusammenbringen von AR- und VR-Nutzer:innen ist ein zentrales Ziel von MetaReal. Damit eine starke soziale Präsenz entsteht, ist eine überzeugende Repräsentation beider Nutzergruppen essenziell. Avatare lassen sich durch Inverse Kinematik (IK) steuern, wobei VR-Nutzer:innen von Hand-Tracking, Controllern und Headsets profitieren, die mehrere Positionsdaten liefern. In Smartphone-AR hingegen existiert nur eine einzige bekannte Position – die des Geräts selbst.
Um die soziale Interaktion zwischen AR- und VR-Nutzer:innen zu verbessern, wurde im Rahmen des MetaReal-Projekts das ARIKA-System entwickelt. Es bietet eine Lösung für die realistische Repräsentation von AR-Nutzer:innen in Mixed Reality. Basierend auf nur einem Trackingpunkt – der Smartphone-Position – approximiert ARIKA die gesamte Körperhaltung. Dazu leitet es aus der Geräteposition die Handposition ab und schätzt daraufhin die komplette Körperpose. Unsere Studie zeigt, dass ARIKA trotz der reduzierten Tracking-Daten ein überzeugendes Körpergefühl (Body-Ownership) vermittelt und mit aufwendig getrackten Vollkörper-Avataren vergleichbar ist. Damit stellt ARIKA eine leichtgewichtige und vielversprechende Lösung für realistische Avatare in hybriden AR-VR-Erfahrungen dar.
Weitere Information zum Paper sind hier zu finden.
"Was ist das?" Was sind typische Fragen die in virtuellen Museen gestellt werden?

Virtuelle Umgebungen mit einer natürlichen Schnittstelle, die das Abrufen von Informationen zum Lernen über die Umgebung ermöglicht, sind eine vielversprechende Kombination für die Umsetzung ansprechender virtueller Ausstellungen. Um das Suchverhalten in solchen Ausstellungen besser zu verstehen, werden in diesem Beitrag die Daten einer explorativen Studie vorgestellt, in der Teilnehmer Fragen zu einem realen historischen Raum, dem Gropiuszimmer des Weimarer Bauhauses, stellten, während sie sich auf einer virtuellen Tour durch den Raum befanden. Der Datensatz umfasst 849 manuell kategorisierte Fragen (557 auf Englisch, 292 auf Deutsch) von 63 Teilnehmern in Kombination mit einem detaillierten Interaktionsprotokoll, das die Wiederholung jeder Sitzung ermöglicht. Der vorgestellte Datensatz und die Analysen zielen darauf ab, Forschern und Praktikern einen Ausgangspunkt für die Entwicklung vertiefter Studien und prototypischer Systeme zu bieten.
Weitere Information zum Paper sind hier zu finden.