Teslas Autopiloten-Feature gehört mit zum fortschrittlichsten, was es derzeit in Richtung autonomes Fahren gibt. Umso bedenklicher ist, dass es Sicherheitsexperten von Keen Security Lab mit relativ einfachen Mitteln gelungen ist, das System zum Narren zu halten und einen Tesla auf die Gegenfahrbahn zu lenken.


Foto: Elon Musk

Drei Sticker führen einen Tesla auf die Gegenfahrbahn

Keen Security Lab ist die Hacking-Abteilung des chinesischen Internet-Unternehmens Tencent und führt regelmäßig akademische Whitehat-Hacks aus, um Unternehmen Sicherheitslücken in ihren Systemen aufzuzeigen. Auch bei Tesla gelang das den Sicherheitsexperten in der Vergangenheit bereits. 2018 führten sie auf der Black Hat Security Conference einen Tesla-Hack über die Softwareschnittstelle vor, der dazu führte, dass Tesla ein Sicherheitsupdate durchgeführt hat.

Für ihren neuen Hack haben die Forscher nicht wie vorher eine Sicherheitslücke in der Software ausgenutzt, sondern mit relativ einfachen Mitteln die Sensorik des Tesla-Autopiloten ausgetrickst. Als Angriffspunkt wählten sie die automatische Spurführung des Systems. Dieses System nutzt die Daten von den Kameras des Autos, um Fahrbahnmarkierungen zu erkennen und so den Wagen in der Spur zu halten. Auch automatische Spurwechsel sind möglich.


Das System verlässt sich dabei ausschließlich auf die Fahrbahnmarkierungen, was die Sicherheitsexperten für eine „Fake-Lane-Attack“ ausnutzten. Mit Hilfe von drei kleinen Stickern auf der Straße haben die Experten eine gefälschte Fahrbahnmarkierung mit Linksdrall angebracht, die von der Kamera eines Tesla erkannt wurde. Der Autopilot reagierte, indem er den Wagen auf die Gegenfahrbahn steuerte. Dabei ist besonders bedenklich, dass es keineswegs nötig ist, dass die verwendeten Sticker der ursprünglichen Fahrbahnmarkierung gleichen. Vielmehr reichte es aus, kleine rote Sticker einzusetzen.

Außerdem fanden die Sicherheitsexperten von Keen Security Lab einen Fehler, über den sie relativ einfach die automatischen Scheibenwischer des Tesla aktivieren können, obwohl es nicht regnet. Ferner gelang es dem Team, das Steuersystem eines Tesla mit einem drahtlosen Gamepad zu steuern.

Tesla bleibt gelassen

Die Forscher wandten sich mit ihren Ergebnissen an Tesla. Das Unternehmen hat auch bereits auf die Sicherheitslücken reagiert. Bezüglich der „Fake Lane Attack“ ließ Tesla verlauten:

In this demonstration the researchers adjusted the physical environment (e.g. placing tape on the road or altering lane lines) around the vehicle to make the car behave differently when Autopilot is in use. This is not a real-world concern given that a driver can easily override Autopilot at any time by using the steering wheel or brakes and should be prepared to do so at all times.

Tatsächlich scheint das Szenario, das jemand Sticker auf der Straße anbringt, um einen Tesla von der Bahn abzubringen, relativ unwahrscheinlich. Sollte dies allerdings geschehen, dann wäre es durchaus möglich, dass ein unaufmerksamer Fahrer einen schweren Verkehrsunfall nach sich zieht.

vie Keen Security Lab

"

Teile den Artikel oder unterstütze uns mit einer Spende.
PayPal SpendeAmazon Spendenshopping

1 Kommentar

  1. tom

    26. April 2019 at 14:26

    Farbkleckser oder alte Farbahnmakierungen von Baustellen sind oft auf den Straßen zu sehen.
    Geschweige Markierungen für die Unfalldokumentationen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.