Suchen

TWO!EARS-Projekt Wenn dem Roboter Menschenohren wachsen

| Redakteur: Jürgen Schreier

Im Forschungsprojekt „TWO!EARS“ haben Wissenschaftler in einem internationalen Konsortium ein Testsystem entwickelt, das wesentliche Aspekte des menschlichen Hörens nachahmt. Federführend war hier die TU Ilmenau.

Firmen zum Thema

Damit das Testsystem in der Lage ist, sich in komplexen Umgebungen mit mehreren Schallquellen akustisch zu orientieren, bezogen die Forscher auch optische Informationen und die koordinative Eigenwahrnehmung ein.
Damit das Testsystem in der Lage ist, sich in komplexen Umgebungen mit mehreren Schallquellen akustisch zu orientieren, bezogen die Forscher auch optische Informationen und die koordinative Eigenwahrnehmung ein.
(Bild: TU Ilmenau)

Während bei bisherigen Modellen des Hörens vorwiegend die Schallsignale an den beiden Ohren ausgewertet wurden, simuliert das im Rahmen des TWO!EARS-Projekts entwickelte System die erheblich komplexere auditive Wahrnehmung des Menschen, die ihrerseits mit dem gesamten Sinnesapparat verwoben ist.

Dabei wertet das "künstliche Ohr" nicht nur akustische Signale aus, sondern auch Informationen, die durch das Sehen oder durch Bewegung gewonnen werden, sowie bereits angelerntes Wissen über die Welt. Das Testsystem wurde in zwei Ausführungsarten umgesetzt: in Form einer virtuellen Umgebung und für den Einsatz in einem Roboter.

Bildergalerie

Empfindungen bekommen eine Bedeutung

Ziel des EU-Projekts TWO!EARS unter der Leitung von Prof. Alexander Raake von der TU Ilmenau war es, menschliches Hören maschinell nachzubilden. In drei Jahren entwickelten mehr als 30 Wissenschaftler aus sechs Ländern ein Testsystem, das Audiosignale ähnlich verarbeitet wie ein Mensch - also nicht nur nur Empfindungen wie Lautstärke, Klangfarbe und räumliche Ausdehnung von Geräuschquellen, sondern auch deren momentane Bedeutung für den Zuhörer.

Damit sich das System auch in komplexen Umgebungen mit mehreren Schallquellen akustisch orientieren kann, bezogen die Forscher zusätzlich optische Informationen und die koordinative Eigenwahrnehmung in das System ein. Die Arbeitsgruppe der TU Ilmenau befasste sich mit der Analyse der Qualität von räumlicher Schallwiedergabe durch Systeme wie der Wellenfeldsynthese, die dreidimensionale visuelle Projektionen mit dreidimensionalem Klang kombiniert.

Roboter handeln auch in komplexen Situationen richtig

Die Erkenntnisse aus dem Projekt dürften die Entwicklung der Informations- und Kommunikationstechnik stark beeinflussen, sind die Forscher überzeugt. So könnten die Algorithmen zum Beispiel dazu dienen, Hörgeräte in Umgebungen mit vielen Sprechern zu verbessern. Außerdem könnten Rettungsroboter entwickelt werden, die nach einer Naturkatastrophe Opfer in einer natürlichen Umgebung orten. Denn beim Aufspüren von Menschen ist - neben bereits gebräuchlichen Instrumenten wie Ultraschall und Infrarot - auch die menschliche auditive Wahrnehmung hilfreich. So wären Roboter in einer komplexen Schallsituation in der Lage zu erkennen, dass jemand um Hilfe ruft.

Partner des TWO!EARS-Projekts waren die TU Ilmenau, die TU Berlin, die Ruhr-Universität Bochum, die Universität Rostock, die Technischen Universitäten Eindhoven und Kopenhagen, die Universität Sheffield, die Universität Pierre et Marie Curie in Paris, das CNRS Toulouse und sowie das Rensselaer Polytechnic Institute im amerikanischen Troy.

Eine ausführliche Dokumentation des „TWO!EARS“-Testsystems und eine lauffähige Version für Matlab findet sich unter www.twoears.eu.

(ID:44616384)