Logo der Universität Wien

Claudia Jenny

Untersuchung der Hörwahrnehmung in der virtuellen Realität – Einfluss der Individualisierbarkeit der binauralen Darbietung in audiovisuellen virtuellen Umgebungen (Betreuer: Christoph Reuter, Piotr Majdak)

claudia.jenny@oeaw.ac.at

Lebenslauf

  • Dissertationsprojekt seit WS 2014/15
  • Dies doctoralis am 01.07.2016
  • seit 2016: Dissertantin in der Forschungsgruppe „Psychoakustik und Experimentelle Audiologie“ am Institut für Schallforschung (ISF) der Österreichischen Akademie der Wissenschaften (ÖAW)
  • 2016: Dr.-Maria-Schaumayer-Stiftungspreis und ARD/ZDF-Förderpreisnominierung „Frauen + Medientechnologie“ für ihre Masterarbeit
  • 2012–2014: MA (mit Auszeichnung) am Institut für Musikwissenschaft der Universität Wien
  • 2014: Masterarbeit am Fraunhofer-Institut für Digitale Medientechnologie IDMT, Ilmenau
  • 2012: ERASMUS-Semester an der Universitat Autònoma de Barcelona, Spanien
  • seit 2010: Studium Elektrotechnik und Informationstechnik an der Technischen Universität Wien
  • 2009–2012: BA am Institut für Musikwissenschaft der Universität Wien
  • Mitgliedschaften: DEGA, DGM, AES

Publikationen

  • Jenny, C., Majdak, P., Reuter, C.: Richtungshören bei statischen und bewegten Schallquellen. 33. Jahrestagung der Deutschen Gesellschaft für Musikpsychologie (DGM), 15.–17.09.2017, Institut für Systematische Musikwissenschaft, Universität Hamburg.
  • Jenny, C., Majdak, P., Reuter, C.: Einfluss individueller Schallfilterung in multimodaler virtueller 3D-Darbietung. 43. Jahrestagung für Akustik (DAGA), 06.–09.03.2017, Christian-Albrechts-Universität, Kiel.
  • Jenny, C., Majdak, P., Reuter, C.: Mit eigenen Ohren in fremden Welten – Individuelle Hörwahrnehmung in virtueller Realität. 32. Jahrestagung der Deutschen Gesellschaft für Musikpsychologie (DGM), 09.–11.09.2016, Institut für Musikwissenschaft, Universität Wien.
  • Jenny, C., Gasull-Ruiz, A., Frutos-Bonilla, J., Sladeczek, C.: Untersuchung zur Verwendung eines wellenfeldsynthesebasierten Algorithmus für kanalreduzierte Lautsprechersetups. 30. Jahrestagung der Deutschen Gesellschaft für Musikpsychologie (DGM), 12.–14.09.2014, Fraunhofer-Institut für Integrierte Schaltungen IIS, Erlangen.
  • Jenny, C.: Untersuchung zur Verwendung eines wellenfeldsynthesebasierten Algorithmus für kanalreduzierte Lautsprechersetups in kleinen Räumen. Masterarbeit, Universität Wien, 2014.

Abstract des Dissertationsprojekts

Background:
Binaural hearing is an important prerequisite for spatial hearing. To determine the location of a sound source our ears make use of the head-related transfer functions (HRTFs) which describe the filtering of a sound source by the outer ear, head and body of the listener. Decisive for the localization perception are the frequency-dependent characteristics of the HRTFs given by our anthropometry. These characteristics vary individually depending on the shape of the ears and the size of the head. HRTFs can be used to present virtual sound sources spatially through headphones, so-called binaural virtual acoustics (BVA). During the audio reproduction of three-dimensional (3D) sound scenarios through BVA, spatial perception is commonly limited if the used features differ from the individual characteristics of the listener. This can lead to incorrect virtual sound source positions or even to an in-head localization. Especially through the technical progress of virtual reality headsets a realistic 3D audio production via headphones becomes of great importance. Nevertheless, the impact of individualization on the listening experience is not completely researched.

Aims:
As part of this doctoral thesis the 3D audio perception of virtual audiovisual sound scenes on head-mounted devices is investigated. The aim of this work is to determine the need for individualization of HRTFs in such scenes.

Method:
In this study, a concept for virtual reality using head-mounted displays, head tracking and headphones is implemented. A virtual visual environment is presented over the head-mounted headset Oculus Rift and is established by the software provided by the manufacturer. This virtual audio environment is designed by the filtering of different audio signals with HRTFs for different directions (depending on the position of the virtual sound sources and the listener’s position in space). The filter algorithms will take the interaction of the receiver in real time into account. Based on an existing database of individual HRTFs of the Acoustics Research Institute ARI hearing tests are performed, which consider the localization perception of several three-dimensional static and dynamic sources in different virtual environments as well as the perception of distance and the sound quality.

Especially in the vertical auditory perception along the vertical dimension, the just perceptible angle, the audiovisual distance estimation and in the front-back localization are new and meaningful results can be expected because in a virtual environment, i. e. a completely predictable space, an even more accurate detection of the interaction between auditory and visual static and moving in space stimuli is possible.

Institut für Musikwissenschaft
Universität Wien
Universitätscampus AAKH
Spitalgasse 2–4, Hof 9
1090 Wien
Universität Wien | Universitätsring 1 | 1010 Wien | T +43-1-4277-0