Amazon hat in den letzten Jahren weltweit tausende neue Mitarbeiter eingestellt. Die Zahl der eingegangenen Bewerbungen lag zudem noch einmal deutlich höher. Für die Personalabteilungen des Konzerns bringt dies eine Menge Arbeit mit sich. Kein Wunder also, dass irgendwann die Idee entstanden ist, die Bewerbungen automatisiert durch einen Algorithmus zu analysieren. Langfristig sollten so die jeweils besten Bewerber identifiziert und direkt eingestellt werden. Doch nun wurde das im Jahr 2014 gestartete Projekt vollständig eingestellt. Der Grund: Die künstliche Intelligenz benachteiligte systematisch weibliche Bewerberinnen. Diese Tendenz wurde nicht von den Entwicklern vorgegeben. Vielmehr trat sie durch das maschinelle Lernen der Software auf. Auch durch gezielte Veränderungen des Algorithmus ließ sich die Problematik nicht dauerhaft beheben, sodass das Projekt nun beendet wurde.


Das Problem trat bereits nach kurzer Zeit auf

Die Grundlage für die Entscheidungen des Algorithmus bildeten die Bewerbungsschreiben aus der Vergangenheit. Die künstliche Intelligenz schaute sich also an, wer bereits eingestellt wurde und wie die dazugehörigen Bewerbungen aussahen. Daraus wiederum entwickelte die KI dann bestimmte Kriterien, die sie auf die neu eingegangenen Anschreiben anwendete. Weil bei Amazon aber mehr Männer als Frauen arbeiten, bewertete der Algorithmus das Atribut „Mann“ als positiv. Männliche Bewerber erhielten somit automatisch einen Bonus alleine aufgrund ihres Geschlechts. Diese Problematik fiel den Entwicklern bereits vor rund drei Jahren auf, sodass der Algorithmus immer wieder angepasst wurde. Letztlich konnte aber nicht ausgeschlossen werden, dass sich das System auch zukünftig auf sexistische Kriterien stützen wird.


Auch künstliche Intelligenz kann unfaire Entscheidungen treffen

Für alle Frauen, die sich in den letzten Jahren bei Amazon beworben haben, gibt es allerdings eine gute Nachricht: Die Software wurde nie vollständig implementiert. Die Entscheidung, wer eingestellt wird, wurde also stets von menschlichen Mitarbeitern getroffen. Dies wird nun auch so bleiben. Die Thematik zeigt allerdings, dass künstliche Intelligenz kein Allheilmittel ist, um vermeintlich neutrale und faire Entscheidungen zu treffen. Mit einem ähnlichen Problem kämpfen beispielsweise auch die Sicherheitsbehörden in den Vereinigten Staaten. Diese nutzen KI-Software, um die Rückfallwahrscheinlichkeit von Gefangenen zu beurteilen. Dabei werden zwar Frauen nicht benachteiligt, dafür aber Afroamerikaner. Es gilt daher: Solange die künstliche Intelligenz alleine mithilfe von Datensätzen aus der Vergangenheit lernt, wird sie auch einen Teil der gemachten Fehler wiederholen.

Via: Reuters

1 Kommentar

  1. David Kummer BGE

    16. Oktober 2018 at 06:22

    Hm, dann ist doch die Frage, warum wurde der Algorythmus nicht komplett neu gestartet und auf der Basis verwendet, die aktuelle Entscheidungen beinhalten?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.