050221_pixabay_funkyfocus_ar
© pixabay | FunkyFocus
Bessere Akustik bei AR-Anwendung
Bruchloses Eintauchen
Das Institut für Nachrichtentechnik der Technischen Hochschule Köln (TH Köln) hat im Rahmen des Projektes EarKAR ein Verfahren entwickelt, um virtuelle Schallquellen adäquat in das reale Umfeld der Nutzer*innen von Augmented-Reality einzubinden.
Mithilfe von Augmented-Reality (AR) werden virtuelle Elemente in das reale Umfeld der Nutzerinnen und Nutzer eingebettet. Wenn der Ton in der digitalen Anwendung aber nicht zur Raumakustik passt, wird das bruchlose Eintauchen in die erweiterte Realität, die Immersion, gestört. Augmented Reality schafft eine sogenannte Mixed Reality, eine Kombination aus realer und computergenerierter Wirklichkeit.
Im Gegensatz zur Virtual Reality wird dabei keine neue Welt, sondern eine Erweiterung der physischen Umgebung kreiert– etwa über mobile Endgeräte oder Datenbrillen. Mithilfe dieser Technik kann zum Beispiel ein Videochat-Gesprächspartner als Hologramm im Raum abgebildet werden. Damit diese Einbettung in die reale Welt möglichst realistisch ist, müssen verschiedene Kriterien wie korrekte Maßstäbe und Schatten, aber auch eine Anpassung des virtuellen Tons an die vorhandene Raumakustik, erfüllt sein. […]
Das Team des Instituts forschte an einer Software, die mithilfe von Künstlicher Intelligenz (KI) verschiedene raumakustische Parameter extrahiert und eine Voraussage über die Raumakustik des realen Umfelds trifft.
„Die KI ermittelt anhand von Bildinformationen, um welche Art von Umgebung es sich handelt – also ob sich die AR-Nutzerinnen und Nutzer zum Beispiel in einer Kirche oder einem Badezimmer aufhalten. Die Darbietung der virtuellen Schallquelle wird anschließend basierend auf dieser Erkennung an die passende Raumakustik des realen Umfelds angepasst“, sagt der wissenschaftliche Mitarbeiter Damian Dziwis. Diese Lösung soll in gängige Augmented-Reality-Systeme integriert werden können. […]
Vollständige Quelle: TH Köln