Autonomes Fahren: So schnell kann sich der Computer irren

Das Fahrzeug nähert sich im Bummeltempo einer virtuellen Kreuzung. „Stop“ gebietet das Verkehrszeichen, das dort aufgestellt ist. Doch statt anzuhalten beschleunigt der – ebenfalls virtuelle – Wagen auf 45 Meilen pro Stunde. Ein Crash bleibt natürlich aus, denn die Forscher der University of Washington in Seattle hatten darauf verzichtet, eine komplette virtuelle Kreuzung zu schaffen. Ihr Ziel erreichten sie auch so. Sie wollten herausfinden, wie autonom fahrende Autos auf Verkehrszeichen reagieren, die leicht verfremdet sind.

Beschleunigen statt anzuhalten

Das kommt gar nicht so selten vor. Selbst ernannte Witzbolde kleben schon mal Zettel drauf. In den USA beispielsweise „Love“ über und „Hate“ unter „Stop“, was die grammatikalisch falsche Botschaft (Love Stop Hate“ ergibt. Menschen haben kein Problem damit, die Bedeutung des verfremdeten Schildes zu erkennen. Die Mustererkennung an Bord autonom fahrender Fahrzeuge schon. Das beklebte Stop-Schild interpretierte sie zu 100 Prozent als Geschwindigkeitsbegrenzung. Dabei hatten Yoshi Kohno, Computer- und Ingenieurswissenschaftler an der Hochschule in Seattle, und sein Team den Kameras im Fahrzeug die Möglichkeit gegeben, das Schild aus unterschiedlichen Entfernungen und Blickwinkeln aufzunehmen.

Bei Farbvarianten ist das System überfordert

Geirrt hatte der so genannte Classifier, die dem menschlichen Gehirn nachempfunden ist, aber bei weitem nicht dessen Leistung erbringt. Er hat die Aufgabe, die Bedeutung der Verkehrszeichen zu erkennen, die dann in Steuerbefehle für das Fahrzeug umgesetzt werden. Das gelingt perfekt bei Schildern, die nicht verunreinigt sind. Ansonsten kommt es zu manchmal fatalen Irrtümern, etwa bei Abbiegegeboten. In den USA sind das gelbe Tafeln mit schwarzen Pfeilen, die die Richtung angeben, die das Fahrzeug zu nehmen hat.

Forscher fordern zusätzliche Sicherheitstechnik

Das Team druckte ein solches Schild aus. Der Pfeil war jedoch nicht, wie beim Original, rein schwarz, sondern bestand aus Pixeln, die eine Verschmutzung simulieren sollten. Insgesamt wirkte er anthrazitfarben, was das menschliche Gehirn nicht irritierte. Die Bilderkennung- und -auswertung des autonom fahrenden Wagens schon. In 66 Prozent der Tests interpretierte sie das manipulierte Schild als Stop-Zeichen, in den restlichen Fällen als Hinweis auf eine zusätzliche Fahrspur. Die erste Fehlinterpretation könnte zu einem Verkehrsstau führen. Die zweite endet möglicherweise mit einem Sturz in den Straßengraben.

Die Forscher schwiegen darüber, welche Systeme sie getestet haben. Ihr Resümee: Es sind neben dem Classifier zusätzliche Systeme nötig, um folgenschwere Irrtümer zu vermeiden.