Sehbehinderte und Blinde orientieren sich in ihrer Umwelt künftig wie Fledermäuse. Diese senden Ultraschallsignale aus und empfangen die reflektierten Wellen. Daraus entwickelt ihr Gehirn in Echtzeit eine dreidimensionale Abbildung der Umgebung. Dieses Prinzip nutzen Forscher der Ruhr-Universität Bochum (RUB) in ihrem „virtuellen Blindenstock“. Es arbeitet allerdings nicht mit Ultraschall, sondern mit Radarstrahlen.


Umgebungsbild aus Tonsignalen

Der sehbehinderte Mensch hält einen Sender in der Hand, in den ein Empfänger integriert ist. Letzterer „zeichnet“ ein Bild der Umgebung und setzt dieses in Tonsignale um. Am Projekt Ravis-3D waren Wissenschaftler von gleich drei RUB-Lehrstühlen beteiligt. Sie arbeiteten mit unterschiedlichen Sendern, bis sie das ideale Modell gefunden hatten. Die erzeugten Töne setzt das Gehirn des Sehbehinderten in ein Bild der Umgebung um, sodass er seinen Weg ohne anzuecken findet. Mit dem herkömmlichen weißen Blindenstock ist das keineswegs selbstverständlich, weil sich Hindernisse erst in letzter Sekunde ertasten lassen.


Tönende Hindernisse werden ausgeblendet

Um den Sehbehinderten nicht zu verwirren blendet das Gerät alle Hindernisse aus, die selbst Geräusche von sich geben und von sich aus wahrnehmbar sind. „Akustisch aktive Hindernisse, wie etwa ein sprechender Mensch, sollte das System nicht als Hindernis begreifen, da der Nutzer sie ja ohnehin schon wahrnimmt“, so Professor Rainer Martin vom Lehrstuhl für Kommunikationsakustik der RUB. „Damit wollten wir erreichen, dass sich die Vertonung von realen Hindernissen beziehungsweise Navigationshinweisen möglichst akkurat in die natürliche akustische Wahrnehmung der Nutzer eingliedert“, ergänzt Professor Gerald Enzner aus der RUB-Kommunikationsakustik.

Die einfachsten Geräte kamen am besten an

Die Forscher setzten unterschiedliche Systeme und Sensoren ein. „Das Erstaunliche war, dass es vor allem die einfachen, intuitiven Systeme waren, die das positivste Nutzer-Feedback ergaben“, sagt Professor Nils Pohl, Inhaber des Lehrstuhls für Integrierte Systeme der RUB. Darauf legten die am Projekt beteiligten Unternehmen Kampmann Hörsysteme aus Essen und SNAP (Sensorbasierte Neuronal Adaptive Prothetik) aus Bochum, besonderen Wert. Deren Aufgabe war es, die unterschiedlichen virtuellen Blindenstöcke mit Sehbehinderten zu testen. Jetzt arbeiten die Forscher daran, die Komponenten zu verkleinern. Sie sind sicher, dass der virtuelle Blindenstock ein Verkaufsschlager wird, denn es gebe keine vergleichbaren Systeme.

via RUB

1 Kommentar

  1. Jürgen Trinkus (Andersicht e. V.)

    29. Oktober 2019 at 17:33

    Mein erster Eindruck: das ist eine universitäre Kopfgeburt. Die haptische Wahrnehmung der Umgebung, wie sie der Langstock – zugegebenermaßen mit Grenzen – vermittelt, wird auf die Ebene der Akustik verlegt. Was dabei unter den Tisch fällt, sind Informationen des Bodenprofils: Unebenheiten, Auf- oder Abwärtstreppen, Bodenindikatoren wie Leitstreifen. Mir scheint, alles bleibt nur eine unbefriedigende Zwischenetappe bis wir das haben, was ich den elektronischen Blindenführhund nennen möchte, also einen Begleiter, der mich durch die Hindernisse auf dem gewünschten Weg leitet, undem er/es mir durch seine Bewegungen vermittelt, wohin ich mich selbst bewegen muss, um unversehrt ans Ziel zu kommen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.