Der Mensch am Steuer eines Autos ist zweifelsohne ein Risikofaktor. So werden die weitaus meisten Unfälle durch menschliche Fehler verursacht. Autonom fahrende Autos sind daher in der Theorie nicht nur bequemer, sondern auch sicherer. Zumal die Software so programmiert wird, dass Geschwindigkeitsüberschreitungen nicht möglich sind. Allerdings können auch fahrerlose Autos gegen Verkehrsregeln verstoßen. Dies verdeutlicht nun ein Zwischenfall in San Francisco. Dort sind nachts autonome Taxis der Marke Cruise von General Motors unterwegs. Genutzt werden sie vor allem von Arbeitskräften, die so von ihrer Wohnung ins Büro gelangen. In der vergangenen Woche entdeckte eine Polizeistreife nun ein Fahrzeug, das ohne Licht unterwegs war. Bei der Fahrzeugkontrolle gab es dann allerdings eine Überraschung: Es saß kein Fahrer am Steuer. Der Beamte versuchte dann noch die Tür zu öffnen, als sich das Auto einfach wieder in Bewegung setzte und davon fuhr.


Bild: Dllu, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons

Die Polizisten verzichteten auf einen Strafzettel

Die vermeintliche Flucht endete allerdings schon nach wenigen Metern wieder. Dann nämlich hielt das autonome Auto am Straßenrand und wartete erneut auf die Polizei. Die Beamten nahmen daraufhin Kontakt mit den Verantwortlichen von Cruise auf und informierten diese über den Vorfall. Ein Strafzettel wurde allerdings nicht ausgestellt. Die Ingenieure des Herstellers analysierten die Szene anschließend und konnten zumindest einen Teil der Situation erklären. So befand sich das Fahrzeug während der ersten Kontrolle im Bereich einer Ampel. Dies interpretierte die Software als gefährliche Situation und fuhr deshalb zur nächsten sicheren Stelle. Dass die Straße durch das dahinter stehende Polizeiauto abgesichert war, erkannte die Technik offensichtlich nicht. Unklar blieb bisher aber noch, weshalb es überhaupt zu der Situation kam. Warum also war das Auto ohne Licht unterwegs? Weil kein Fahrer an Bord war, kann der Fehler hier eigentlich nur bei der Software liegen.


In San Francisco sind vermehrt autonome Autos unterwegs

Dies aber wirft einige Fragen auf. Denn es handelt sich keineswegs um eine besonders neue Technik. Auch bei vielen konventionellen Autos gibt es längst eine Funktion, bei der sich das Licht automatisch an die äußeren Bedingungen anpasst. Wieso dies nun ausgerechnet bei dem hochmodernen autonomen Auto nicht geklappt hat, muss geklärt werden. Zumal inzwischen in San Francisco nicht nur die selbstfahrenden Fahrzeuge von Cruise unterwegs sind, sondern auch die des Konkurrenten Waymo, hinter dem der Google-Konzern steht. Die Polizei vor Ort wird sich also darauf einstellen müssen, immer mal wieder auf Autos ohne Fahrer zu treffen. Cruise hat nun zumindest versprochen, verstärkt Informationen anzubieten und eine direkte Kontaktaufnahme mit menschlichen Mitarbeitern zu ermöglichen. Die Geschichte rückt aber auch eine weitere noch ungeklärte Frage in den Fokus: Wer haftet bei Fehlern von autonomen Autos – insbesondere wenn diese schwerwiegende Folgen haben?

Via: Electrek

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.