In immer mehr Bereichen kommen Algorithmen und auf künstlicher Intelligenz basierende Programme zum Einsatz. Schon heute bringt dies bei vielen Anwendungen einen großen Nutzen mit sich. Experten sind sich zudem sicher: Das Potenzial dieser Technologien ist bei weitem noch nicht ausgereizt. Je stärker sich die Nutzung verbreitet, desto wichtiger wird es aber auch, auf mögliche Schwachstellen zu achten. Einige problematische Phänomene sind bereits aus der Vergangenheit bekannt. So arbeitete Amazon lange an einem Algorithmus, um Bewerbungen automatisiert zu prüfen und zu bewerten. Letztlich stellte sich aber heraus, dass die künstliche Intelligenz lediglich die Vorurteile der Vergangenheit reproduzierte. So wurden Frauen auch durch den Algorithmus benachteiligt. In den Vereinigten Staaten wird zudem oft ein Algorithmus verwendet, um die Priorisierung der Patienten festzulegen. Hier stellte sich später heraus, das Afroamerikaner benachteiligt wurden.


Die Forscher sprechen von einem Warnsignal

Eine internationale Forschungsgruppe hat nun eine weitere beunruhigende Entdeckung gemacht. Sie fütterten tiefe neuronale Netze mit Röntgenaufnahmen von verschiedenen Patienten. Auf diesen ist logischerweise die Hautfarbe nicht zu erkennen. Die Forscher verzichteten zudem darauf, weitere Daten einzuspeisen, die leicht Rückschlüsse in diese Richtung zuließen. Trotzdem gelang es der künstlichen Intelligenz die Ethnie der einzelnen Patienten zu bestimmen. Aus rein technologischer Sicht ist dies eine beeindruckende Leistung. Für die Forscher ist es aber auch ein Alarmsignal. Denn dies könnte in der Folge wieder zu ungewollten Diskriminierungen führen. Die Forscher warnen davor, dass eine solche Voreingenommenheit auch dann auftreten kann, wenn der Algorithmus gar nicht auf die Erkennung der Ethnie ausgerichtet ist. Im schlimmsten Fall würden bestimmte Prozesse durch den Einsatz von KI dann zwar effizienter – nicht aber gerechter. Forscher in aller Welt arbeiten nun an Ansätzen, um solche Verzerrungen zu verhindern.


Die perfekte Lösung wurde noch nicht gefunden

Eine Idee sind sogenannte synthetische Daten. Dabei kommt ein generatives Modell zum Einsatz, das auf Basis eines realen Datensatzes ein neues Datenset mit den gleichen statistischen Eigenschaften erzeugt. Kommt die KI dann bei der Analyse zu diskriminierenden Entscheidungen, können die neu generierten Daten genutzt werden, um die entsprechenden Eigenschaften gezielt zu verändern oder zu verschleiern. Das Problem allerdings: Der Trick funktioniert nur, wenn ausreichend große Mengen an Daten zur Verfügung stehen. Dies ist in der Praxis allerdings nur selten der Fall. Alternativ könnten Algorithmen und künstliche Intelligenz aber auch gezielt zum Einsatz kommen, um zu erfahren, wo es zu Diskriminierungen und Ungerechtigkeiten kommt. Diese müssten dann durch gezielte Gegenmaßnahmen ausgeglichen werden. Ganz auf die Nutzung von KI und Algorithmen sollte man deswegen natürlich nicht verzichten. Es ist aber wichtig, sich die Grenzen und Limitierungen bewusst zu machen.

Via: Arxiv (PDF)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.