In den vergangenen Jahren hat der technische Fortschritt schon zu einigen Verbesserungen bei den Grenzkontrollen geführt. So werden inzwischen oftmals auch die biometrischen Daten und die Fingerabdrücke überprüft. Zukünftig will die Europäische Union zudem Lügendetektoren nutzen, um einreisende Personen zu kontrollieren. Das dazu ins Leben gerufene Forschungsprojekt trägt den Namen iBorderCtrl und hat nun erste Ergebnisse präsentiert: Bei insgesamt 32 Probanden und jeweils 13 Fragen konnte das System in immerhin 75 Prozent der Fälle richtig einschätzen, ob gelogen wurde oder nicht. Damit schneidet der Computer deutlich besser ab als der Mensch: Dieser kommt bei der selben Aufgabenstellung nur auf eine Genauigkeit von 50 Prozent – was bei einer Fragestellung mit nur zwei Antwortmöglichkeiten kein besonders guter Wert ist.


Der Algorithmus gibt am Ende einen Risiko-Score aus

Doch wie funktioniert der Test überhaupt? Im Rahmen des nun durchgeführten Experiments bekamen die Probanden von einem virtuellen Avatar verschiedene Fragen gestellt. So wurden etwa Daten zur Herkunft oder Informationen über das mitgeführte Gepäck abgefragt. Sich besonders intelligente Antworten einfallen zu lassen, hilft allerdings nicht. Denn die hinter dem Lügendetektor stehende künstliche Intelligenz achtet gar nicht auf den Inhalt, sondern analysiert lediglich die Körpersprache und ähnliche Merkmale. Auf dieser Basis gibt der Computer dann einen Risiko-Score heraus. Dieser soll Aufschluss darüber geben, wie wahrscheinlich es ist, dass eine bestimmte Person nicht die Wahrheit sagt. Dies wiederum kann dann dazu führen, dass menschliche Grenzbeamte eine detailliertere Prüfung durchführen. Ausdrücklich soll es aber nicht so sein, dass alleine die Einschätzung des Algorithmus darüber entscheidet, ob jemand einreisen darf oder nicht.


Künstliche Intelligenz ist anfällig für Diskriminierungen

Es handelt sich vielmehr lediglich um eine zusätzliche Hilfestellung für die Grenzbeamten. Diese Vorgehensweise birgt aber auch Gefahren in sich. Denn zum einen sind solche auf künstlicher Intelligenz basierenden Systeme anfällig für bestimmte Diskriminierungen. So hatte Amazon einen Algorithmus entwickelt, um Bewerbungen zu bewerten. Die künstliche Intelligenz benachteiligte allerdings systematisch weibliche Bewerberinnen – und wurde daher nie vollständig implementiert. Hinzu kommt: Die Datenschutz-Grundverordnung schreibt vor, dass Betroffene im Fall einer automatisierten Einzelfallentscheidung über die dahinter stehende Logik informiert werden müssen. Dies ist im Fall einer selbstlernenden KI aber gar nicht so einfach. Das Forschungsgebiet der erklärbaren künstlichen Intelligenz steckt nämlich noch in den Kinderschuhen.

Via: Berliner Zeitung

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.