Schon heute werden auch in einigen deutschen Bundesländern die Straßen automatisiert überwacht. Dabei werden allerdings nur die jeweiligen Nummernschilder erfasst und mit einer Datenbank abgeglichen. Erlaubt ist dies zudem nur, wenn ein konkreter Anlass vorliegt. Das System ist aber ohnehin fehleranfällig, weil das Kennzeichen zum einen gefälscht werden kann. Zum anderen sagt das Nummernschild auch nichts darüber aus, wer tatsächlich das Auto steuert. In New York wurde auf der Robert-F.-Kennedy-Bridge daher im vergangenen Jahr eine neue Software getestet, die per automatisierter Gesichtserkennung den tatsächlichen Fahrer identifizieren sollte. Wie das „Wall Street Journal“ nun allerdings berichtet, erwies sich die Technologie als nicht besonders praxistauglich.


Bild: Metropolitan Transportation Authority of the State of New York [CC BY 2.0 (https://creativecommons.org/licenses/by/2.0)]

Die Tests sollen an anderen Orten fortgesetzt werden

Konkret konnte keine der Testpersonen korrekt erkannt werden. Schuld daran waren vermutlich vor allem die hohe Geschwindigkeit der Fahrzeuge und die allgemeine Unübersichtlichkeit des Verkehrs auf der Brücke. Denn im Vorfeld hatte das „Oak Ridge National Laboratory“ die Software ebenfalls getestet und eine Treffsicherheit von rund achtzig Prozent erreicht – allerdings eben bei deutlich reduzierter Geschwindigkeit. Die Behörden in New York wollen sich von dem Rückschlag unter realen Bedingungen nicht beeindrucken lassen. Stattdessen teilte ein Sprecher mit, dass die Tests an verschiedenen Orten innerhalb der Metropole fortgesetzt werden sollen. Bis die Technologie aber tatsächlich von den Sicherheitskräften genutzt werden kann, dürften noch einige Jahre vergehen.

Auch bei Fußgängern funktioniert die Technik nicht einwandfrei

Zumal schon die automatisierte Gesichtserkennung von Fußgängern keineswegs einwandfrei funktioniert. So hatte die britische Polizei rund um das Champions League Finale in Cardiff im Jahr 2017 mit einer extrem hohen Zahl an falsch positiven Fällen zu kämpfen. Oder anders ausgedrückt: Die Software hat 2.297 Mal bei vollkommen unbescholtenen Bürgern angeschlagen. Außerdem haben die automatisierten Systeme generell das Problem, dass sie bestimmte Personen besser erkennen als andere. So ist die Trefferquote bei weißen Männern vergleichsweise hoch. Menschen mit schwarzer Hautfarbe oder Frauen bereiten der Technik hingegen größere Probleme. In China wird daher bereits an einer Technologie gearbeitet, die Menschen anhand ihres Gangs erkennen soll. Datenschützer warnen allerdings vor all diesen automatisierten Erkennungssystemen.


Via: Engadget

Teile den Artikel oder unterstütze uns mit einer Spende.
PayPal SpendeAmazon Spendenshopping

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.