Jump to navigation

Logo RUB
  • Energiesparen
  • Studium
  • Forschung
  • Transfer
  • News
  • Über uns
  • Einrichtungen
 
MENÜ
  • RUB-STARTSEITE
  • News
  • Wissenschaft
  • Studium
  • Transfer
  • Leute
  • Hochschulpolitik
  • Kultur und Freizeit
  • Vermischtes
  • Servicemeldungen
  • Serien
  • Dossiers
  • Bildergalerien
  • Presseinformationen
    • Abonnieren
  • RUB in den Medien
  • Rubens
  • Rubin
    • Abonnieren
    • Printarchiv
  • Archiv
  • English
  • Redaktion

Newsportal - Ruhr-Universität Bochum

Testperson mit geschlossenen Augen
Per Knopfdruck geht es einen virtuellen Schritt voran, immer dem Ton folgend, den Christoph Urbanietz (rechts) ausgewählt hat.
© Damian Gorczany
Blindenradar

Folgen Sie dem Ton

Die Welt wie eine Fledermaus wahrnehmen und sich ohne Seheindrücke sicher orientieren: Für Sehbehinderte wäre das eine große Hilfe. Ingenieure arbeiten daran.

Ein zarter Ton wie eine angezupfte Saite ist mein einziger Halt im Raum. Mit geschlossenen Augen, die Ohren unter einem Kopfhörer, manövriere ich mein virtuelles Ich per Knopfdruck durch einen verwinkelten digitalen Flur. In kurzen Abständen erklingt der Ton vor mir. Per Knopfdruck bewege ich mich einen Schritt darauf zu. Jetzt erklingt der Ton ein wenig weiter links. Ich wende mich ihm ein kleines Stück zu, sodass er wieder in der Mitte vor mir ist. Noch ein Schritt. Er bleibt in der Mitte. Ein weiterer Schritt.

So lotst mich der Ton zuverlässig durch den Gang. Ich ecke nicht an, laufe nicht vor eine Wand. Allmählich gewinne ich an Zutrauen und gehe zügiger. Zu zügig anscheinend – ein Warnton erklingt. Stehenbleiben, neu orientieren. Ton in der Mitte vorn, weiter.

Intuitiv zu nutzen

Ich bin überrascht, wie intuitiv das System funktioniert, denn die Einweisung von Privatdozent Dr. Gerald Enzner vom Institut für Kommunikationsakustik war bewusst knapp. Zusammen mit Christoph Urbanietz hat er in einem schalltoten Raum im Keller des Gebäudes ID heute den sogenannten Sonifikationssimulator aufgebaut. „Wir machen das gerne hier, weil wir hier abgeschirmt sind von der Umgebungsakustik, sodass man sich in dieser vorläufigen Entwicklungsphase erst einmal nur auf den leitenden Ton konzentrieren kann“, erklärt er.

„Folgen Sie einfach dem Ton“, erklärt Gerald Enzner. Der virtuelle Grundriss ist auf dem Monitor dargestellt. Der Nutzer ist ein roter Punkt, das Ziel ein grünes Kästchen.
© Damian Gorczany

Diesen Ton, die angezupfte Saite, hat Christoph Urbanietz ausgesucht – er sei einfach eine intuitiv gute Wahl gewesen, erzählt er augenzwinkernd. In zweierlei Hinsicht ein Glücksgriff, denn zum einen ist er kurz und besonders gut zu orten. Zum anderen ist er angenehm und einladend. Er nervt nicht. Daher wendet man sich ihm gerne zu und folgt ihm. Der Warnton dagegen ist schräg und abweisend.

Hinter dem Tonsignal, das eines Tages Blinde durch unbekanntes Terrain lotsen soll, steckt eine Menge Technik, die noch ausgearbeitet, verfeinert, verkleinert werden muss. Das planen die Forscher im Projekt Ravis-3D, das etwas länger als ein halbes Jahr läuft. Der Sonifikationssimulator setzt einen virtuellen Grundriss in Tonsignale um. Rückmeldung über die Bewegungen des Nutzers bekommt er über einen Bewegungssensor auf dem Kopfhörer und durch ein Zeigeinstrument, über das man pro gedachtem Schritt einen Knopfdruck macht. Später wird sich der Träger des Systems selbst im echten Raum bewegen, und seine Bewegungen werden über Sensoren erfasst werden.

System soll kleiner werden

Der virtuelle Grundriss, auf dem die Tonerzeugung basiert, entsteht dann durch die Abtastung der Umgebung mittels Radar. Das Prinzip habe ich ein paar Etagen höher in einem Flur des Gebäudes ID schon besichtigen können. Hier hat das Team von Prof. Dr. Nils Pohl vom Lehrstuhl Integrierte Systeme ein mannshohes Stativ aufgebaut, auf dem sich eine komplizierte Vorrichtung ständig um sich selber dreht und dabei leise Zwitschergeräusche macht. Wie mir Nils Pohl erklärt, sind die meisten Komponenten der Apparatur nur dafür zuständig, den oberen Teil zu drehen. Die damit befassten Elektromotoren erzeugen das Geräusch. „Das eigentlich Interessante ist der Radarsensor ganz oben. Er befindet sich auf einem Mikrochip und ist nur zwei mal zwei Millimeter groß“, sagt Pohl.

Das blaue Ei ist die Radarantenne, das blaue Kästchen dahinter beinhaltet die Elektronik des Radarsensors, der hauptsächlich aus einem winzig kleinen Radarchip von zwei mal zwei Millimetern Größe besteht.
© Damian Gorczany

Das kleine blaue Ei ist eine Radarantenne, dahinter in einem blauen Kästchen der Sensor. Ihn haben die Bochumer Ingenieure entwickelt, und mit ihm haben sie noch viel vor. Kleiner soll er werden, und er soll es ermöglichen, das für die Orientierung im Raum notwendige Blickfeld ohne Eigendrehung der Antenne zu erfassen. Ob man dafür einen Blickwinkel von 30 oder 60 Grad oder noch einen ganz anderen braucht, muss noch näher untersucht werden. Sicher ist, dass das gesamte System schließlich in einem Stirnband, einer Brille oder im Knauf eines Taststocks Platz finden soll.

Auf hellgrünem Grund ist die Form des Flurs in Rot und Gelb erkennbar. Nils Pohl (links) erklärt die dicken roten Flecken als Gegenstände, die besonders gut reflektieren. Patrick Kwiatkowski (Mitte) und Alexander Orth justieren das Stativ.
© Damian Gorczany

Auf dem Monitor eines angeschlossenen Computers ist zu sehen, wie die durch Radarmessung erzeugte Repräsentation unserer Umgebung hier aussieht. Auf überwiegend grünlichem Grund sind Muster in Rot und Gelb zu erkennen. Sie stellen Gegenstände dar, die die vom Radar ausgesandten elektromagnetischen Wellen reflektieren, sodass sie der Sensor wieder empfängt. „Der Fleck hier bin ich“, zeigt Nils Pohl, und macht einen Schritt zur Seite. Mit der nächsten Drehung des Radarsystems, mit der sich das Bild erneuert, bewegt sich auch sein Punkt auf dem Bildschirm ein Stück. Die Wände sind als unregelmäßige Reihen von unförmigen Flecken erkennbar. Verdickungen sind zum Beispiel Türrahmen. „Metall reflektiert so gut, dass es stärker dargestellt wird“, so Nils Pohl.

Ursprünglich andere Anwendung geplant

Eigentlich haben es die Forscher mit ihrem Radarsystem auf ganz andere Anwendungen abgesehen. Sie haben zum Beispiel Füllstandsmesssysteme für Industrietanks entwickelt und Komponenten für selbstfahrende Autos. Dabei kam dem Lehrstuhlmitarbeiter Timo Jaeschke die Idee, die Technik als Orientierungshilfe für Sehbehinderte einzusetzen.

Schon jetzt, noch ganz zu Anfang der dreijährigen Projektlaufzeit, fasziniert die Idee – nicht nur mich, sondern auch viele Medienvertreter, die schon zu Besuch waren. „Dabei werden wir erst in zwei Jahren so weit sein, dass wir wirklich etwas zeigen können“, sagt Nils Pohl.

Über den Bewegungsmelder auf dem Kopfhörer erhält das Simulationssystem Informationen darüber, wohin sich der Nutzer dreht. Das fertige Hilfsmittel soll den Nutzer nicht so von der akustischen Umwelt abschotten, sondern ist als offenes System geplant, das auch Umgebungsgeräusche durchlässt.
© Damian Gorczany

Bis dahin steht dem Team noch viel Arbeit bevor. Zahlreiche Fragen, nicht nur technischer Art, sind noch offen. Die Simulation zum Beispiel funktioniert wie ein Navigationssystem. Mein Ton kann mich nur lotsen, weil er weiß, wohin ich will. Was aber, wenn ein sehbehinderter Mensch irgendwo aus dem Bus steigt und nicht weiß, wo es lang geht? „Daran arbeiten wir“, sagt Gerald Enzner.

Ravis-3D

Ravis-3D wird seit Sommer 2016 für drei Jahre von der Europäischen Union und dem Land Nordrhein-Westfalen mit insgesamt 1,8 Millionen Euro gefördert. 1,36 Millionen Euro davon gehen an die RUB. Beteiligt sind drei Lehrstühle – der Lehrstuhl für Eingebettete Systeme, der Lehrstuhl für Integrierte Systeme und das Institut für Kommunikationsakustik – und mehrere Industriepartner.

Download hochauflösender Bilder
Der Download der gewählten Bilder erfolgt als ZIP-Datei.
Bildzeilen und Bildnachweise finden Sie nach dem Entpacken in der enthaltenen HTML-Datei.
Nutzungsbedingungen
Die Verwendung der Bilder ist unter Angabe des entsprechenden Copyrights für die Presse honorarfrei. Die Bilder dürfen ausschließlich für eine Berichterstattung mit Bezug zur Ruhr-Universität Bochum verwendet werden, die sich auf die Inhalte des Artikels bezieht, der den Link zum Bilderdownload enthält.
Ich akzeptiere die Nutzungsbedingungen.
Dokumentedownload
  • Artikel als PDF-Datei
Veröffentlicht
Montag
24. April 2017
09.50 Uhr
Von
Meike Drießen (md)
Dieser Artikel ist am 2. Mai 2017 in Rubin 1/2017 erschienen. Die gesamte Ausgabe können Sie hier als PDF kostenlos downloaden.
Weitere Rubin-Artikel sind hier zu finden.
Share
Teilen
Das könnte Sie auch interessieren
Mann mit Smart Glasses
Augmented Reality

Digitaler Wartungshelfer

Sebastian Houben
Standpunkt

Wenn Maschinen forschen

Legoroboter sitzt vor einem Foto
Neuroinformatik

Warum es künstliche Intelligenz eigentlich noch nicht gibt

Derzeit beliebt
Klebefäden zwischen zwei Oberflächen
Teilchenphysik

Der Kleber, der Materie zusammenhält

Landkarte auf einem Tablet
ERC Advanced Grant

Mit Tricks zur besseren inneren Landkarte

Porträt
ERC ADVANCED GRANT

Umdenken für neue und sichere Verschlüsselungen

 
Mehr Wissenschaft
Ressort
 
Zur Startseite
News
  • A-Z
  • N
  • K
Logo RUB
Impressum | Kontakt
Ruhr-Universität Bochum
Universitätsstraße 150
44801 Bochum

Datenschutz
Barrierefreiheit
Impressum
Schnellzugriff
Service und Themen
Anreise und Lagepläne
Hilfe im Notfall
Stellenangebote
Social Media
Facebook
Twitter
YouTube
Instagram
Seitenanfang y Kontrast N
Impressum | Kontakt