Beim Champions League Finale im walisischen Cardiff wurden 170.000 Personen mithilfe einer Software zur automatischen Gesichtserkennung überprüft. Abgeglichen wurden die Bilder mit einer Datenbank von gesuchten Personen. Alleine rund um das Finale schlug das System bei 2.470 Personen an. Das Problem: 2297 Meldungen erwiesen sich als vollkommen haltlos. Oder anders ausgedrückt. Die Trefferquote lag bei lediglich rund acht Prozent. Immerhin betonten die zuständigen Polizeibehörden, dass niemand wegen eines solchen Fehlalarms festgenommen wurde. Auch habe es keine Beschwerden gegeben. Dies lag daran, dass ein Großteil der Fehlalarme direkt ersichtlich war und die betroffenen Personen somit gar nicht erst belästigt wurden. In den anderen Fällen wurde ein sogenanntes Invterventionsteam losgeschickt, um die Personen zu überprüfen.


Ursprünglich wurde der Einsatz als Erfolg gefeiert

Die Polizei in Wales will trotz der hohen Zahl an falsch positiven Meldungen nicht von einem Misserfolg sprechen. Vielmehr wird betont, dass kein System vollkommen fehlerfrei arbeite. Mehr noch: Sowohl die zuständigen Behörden als auch der Hersteller NEC veröffentlichten Pressemitteilungen, in denen der Einsatz des Systems beim Champions League Finale als großer Erfolg dargestellt wurde. Die nun veröffentlichten genauen Zahlen lassen daran aber erhebliche Zweifel aufkommen. Zumindest scheinen die Verantwortlichen auch schon einen Sündenbock gefunden zu haben: Sie ließen verlauten, die Qualität der gelieferten Bilder sei einfach zu schlecht gewesen. Zuständig dafür waren die UEFA und Interpol. Außerdem sei es der erste Einsatz der Software bei einem Großereignis gewesen. Zukünftig seien weniger Fehlalarme zu erwarten.

Datenschützer melden erhebliche Bedenken an

Tatsächlich wurde das System inzwischen auch bei einem Liam-Gallagher-Konzert getestet. Dort gab es insgesamt nur sechs Meldungen – die sich auch allesamt als richtig entpuppten. Datenschützer sind von der Technik dennoch alles andere als begeistert. Denn es werden zahlreiche sensible Daten produziert, ohne dass diese durch entsprechende gesetzliche Vorgaben ausreichend geschützt sind. Die hohe Zahl an Fehlalarmen sorgt zudem dafür, dass extrem viele vollkommen unbescholtene Bürger durch menschliche Polizisten überprüft werden. Trotz dieser Bedenken wird eine ähnliche Technologie aktuell auch in Deutschland getestet: Die Bundespolizei führt entsprechende Feldversuche am Berliner Bahnhof Südkreuz durch. Der ehemalige Innenminister Thomas de Maiziere galt als Anhänger der automatischen Gesichtserkennung, sein Nachfolger Horst Seehofer hat sich zu dem Thema noch nicht näher geäußert.


Via: The Guardian

Teile den Artikel oder unterstütze uns mit einer Spende.
PayPal SpendeAmazon Spendenshopping

1 Kommentar

  1. David Kummer BGE

    8. Mai 2018 at 09:24

    Ich finde die Technik gut.
    Sie würde zu erheblichen Verbesserungen der sicherheit führen. Schon weil auch Menschen, bei sollchen Aufgaben, es nicht einfach haben.
    Vorteil für die Menshen ist auf jden Fall, das ihnen der Augenkrebs eine Zeit lang erspart bleibt. Sie müssen ja nur noch die vorgefilteren Menschen überprüfen. Was ich allerdings bedenklich finde, ist das das System auch einfach ausgetrickst werden kann. Ich hacke das System und lösche mich daraus. Oder schlimmer noch, ich stelle andere als zu suchend rein.

    Was den Datenschutz angeht, solang das System die Daten nicht weitergibt, oder länger Speicheret als bis zur Überprüfung notwendig, was soll daran verkehrt sein?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.