Forschungsprojekt EarKAR
Erzeugung von audiovisueller räumlicher Konvergenz für Augmented Reality Anwendungen und Systeme (EarKAR)
Im Rahmen des Vorhabens wurden Verfahren für Augmented Reality Anwendungen entwickelt, um virtuelle Schallquellen durch eine geeignete Anpassung ihrer raumakustischen Eigenschaften adäquat in die reale Umgebung des Nutzers einzubetten. Somit erzeugte virtuelle Schallquellen fügen sich im Einvernehmen mit der vorhandenen realen Raumakustik harmonisch in die AR-Szene ein. Durch die erforschten technologischen Lösungen kann für jede AR-Hardware und Anwendung eine audiovisuelle räumliche Konvergenz erzeugt werden, welche für die Immersion des Nutzers in einer AR-Umgebung zwingend erforderlich ist. Die im Rahmen des Projektes entwickelte Software wird in gängige AR Systeme integriert und evaluiert. Zudem wurde die wissenschaftliche Fragestellung untersucht, inwieweit bestimmte Parameter und Faktoren der Schallfelderfassung und der Hörbarmachung eine audiovisuelle räumliche Konvergenz und die damit einhergehende Immersion beeinflussen.
Auf einen Blick
Kategorie | Beschreibung |
---|---|
Forschungsprojekt | EarKAR – Erzeugung von audiovisueller räumlicher Konvergenz für Augmented Reality Anwendungen und Systeme |
Leitung | Prof. Dr.-Ing Christoph Pörschmann |
Fakultät | Fakultät für Informations-, Medien- und Elektrotechnik |
Institut | Institut für Nachrichtentechnik |
Beteiligte | Christoph Pörschmann, Johannes Mathias Arend, David Bau, Damian Thomas Dziwis, Tim Lübeck |
Projektpartner | Dear Reality GmbH |
Fördermittelgeber | EFRE-NRW |
Laufzeit | 01.02.2019 – 31.01.2021 |