Intelligente Hörgeräte sollen Sprecher erkennen

Nutzer von Hörgeräten könnten in Zukunft kraft ihrer Gedanken leichter Gesprächen folgen. Forscher haben in einer aktuellen Studie gezeigt, dass sie erkennen, auf welchen Sprecher sich ein Hörer konzentriert und zudem eine bestimmte Stimme aus einem Stimmgewirr herausfiltern können. [...]

Die Kombination dieser Ansätze stellt Hörgeräte in Aussicht, die erkennen, wen der Nutzer gerade hören will und genau dabei gezielt helfen.
Stimmentwirrung
Für Träger von Hörgeräten ist es bislang oft schwer, in lauter Umgebung einem Gespräch mit mehreren Beteiligten zu folgen. Denn während die Geräte Hintergrundgeräusche eliminieren, helfen sie nicht, das Stimmengewirr selbst zu lichten. Eben das wird mit dem System des Teams um Nima Mesgarani, Elektrotechnik-Professor an der Columbia University, möglich. Dieses empfängt ein Gemisch aus Stimmen über einen Audio-Eingang sowie neurale Signale eines Nutzers. Das System separiert automatisch einzelne Sprecher, erkennt, auf wen der Nutzer seine Aufmerksamkeit richtet und verstärkt die entsprechende Stimme – und das in unter zehn Sekunden.
Der Ansatz kombiniert dazu modernste Methoden der Aufmerksamkeitserkennung und der Sprachverarbeitung: „Wir konnten das System schaffen, nachdem wir einen Durchbruch bei der Nutzung tiefer neuronaler Netze zu Sprachseparierung erzielt haben“, sagt Mesgarani. Im Prinzip setzt das System nun darauf, verschiedene Stimmen aus dem Eingangssignal zu trennen und die Einzelsignale mit dem neuralen Signal des Nutzers zu vergleichen. Denn dieses passt zum Signal der Stimme, auf die er sich konzentriert und zeigt so, welche Sprecherstimme akustisch zu verstärken ist.
Umsetzungshürden
Das aktuelle System, zum dem es ein Online-Demo gibt, ist freilich noch längst kein Hörgerät. „Unsere Ergebnisse auf echte Anwendungen zu übertragen, ist mit vielen Herausforderungen verbunden“, betont James O’Sullivan, Postdoc in Mesgaranis Team. Das liegt unter anderem daran, dass ein Hörgerät auch kompakt und bequem sein sollte. Als das Team 2012 anhand von Gehirnsignalen erstmals ermitteln konnte, auf welchen Sprecher sich jemand konzentriert, war dazu noch eine invasive Messung nötig. Eine Aufmerksamkeitserkennung mit nichtinvasiven Methoden ist erst 2015 gelungen. Wann ein eher unauffälliger Hörstecker, der auch noch Stimmen trennt und verstärkt, reichen wird, bleibt vorerst abzuwarten.

Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*