Die App "vOICe" erleichtert es blinden Menschen, ihre Umwelt besser zu erkennen, indem verschiedene Formen durch unterschiedliche Töne dargestellt werden. [...]
Seit 2007 nutzt auch Amir Amedi, Neurowissenschaftler an der Hebrew University of Jerusalem, diese vielversprechende Technologie beim Training mit blinden Probanden. Ursprünglich ist das vOICe- System vom niederländischen Ingenieur Peter Meijer im Jahre 1992 entwickelt worden.
„Ich kann mir vorstellen, dass eine derartige App nach einer schrittweisen Erarbeitung durchaus vielversprechend ist. Dennoch muss man wie auch bei der Echolokalisation zuerst lernen, mit diesem System umzugehen, damit dieses auch im Alltag erfolgreich angewandt werden kann“, betont Bernd Peters von der Beratungsstelle Magdeburg des Blinden- und Sehbehinderten-Verbands Sachsen-Anhalt gegenüber der Nachrichtenagentur pressetext. Überdies seien Blindenleitsysteme ohnehin nie einheitlich und würden stetigen Veränderungen unterlaufen.
Die Anwendung wandelt Kamerabilder in eine Klanglandschaft um, die vom Gehirn des Nutzers verarbeitet wird. Die vOICe-App für Android-Smartphones verfügt außerdem über einen sprechenden Farbbezeichner, einen sprechenden Kompass sowie ein sprechendes GPS-system. Zusätzlich zur vOICe-Anwendung für Android, durch welche die Umgebung erfasst und in Töne umgesetzt wird, gibt es die sogenannte „EyeMusic“-App für iPhones, welche die Formen durch Farben ergänzt.
Binnen einer Sekunde wird der gesamte Raum penibel von links nach rechts gescannt. Die Tonhöhe dient dazu, die unterschiedlichen Höhen darzustellen, während die Helligkeit mithilfe der Tonlautstärke abgebildet wird. Eine steigende helle Linie klingt beispielsweise wie ein steigender Ton oder ein heller Punkt wie ein kurzer Signalton. Im Gegensatz dazu wird ein helles gefülltes Rechteck wie ein Fester bei Tageslicht in ein kurzes Rauschen verwandelt sowie ein vertikales Raster in einen Rhythmus. (pte)
Be the first to comment