Kameras sind in Gefängnissen keine Seltenheit. Tatsächlich werden sie heute nicht mehr nur genutzt, um Ausbruchsversuche zu entdecken. Stattdessen dienen sie in den meisten Fällen der Gewaltprävention. So werden beispielsweise die Flure und Höfe der Gefängnisse auf diese Weise rund um die Uhr überwacht. Bei suizidgefährdeten Insassen können zudem besondere Sicherungsmaßnahmen ergriffen werden. Hier ist dann auch eine Videoüberwachung der Zelle möglich. Bei all den Kameras gibt es bisher aber ein Problem: Es werden schlicht zu viele Aufnahmen gemacht, um diese in Echtzeit von menschlichen Mitarbeitern anschauen zu lassen. Der niedersächsische Landtag hat daher nun ein interessantes Pilotprojekt verabschiedet. Dabei soll in der Justizvollzugsanstalt in Oldenburg der Einsatz von künstlicher Intelligenz im Strafvollzug getestet werden. Über einen Zeitraum von drei Jahren steht knapp eine Million Euro zur Verfügung, um die Technologie zu erproben.


Entscheidungen werden nur von Menschen getroffen

Auch zukünftig wird allerdings ein Mensch vor den Bildschirmen sitzen. Die von den Kameras gemachten Aufnahmen werden aber gleichzeitig von einer künstlichen Intelligenz analysiert. Gibt es dabei Auffälligkeiten wird ein Hinweis an die Justizvollzugbeamten gegeben. Diese entscheiden dann über weitergehende Maßnahmen. Außerdem geben sie Feedback, ob es sich um einen berechtigten Hinweis handelte. Daraus wiederum kann dann der Algorithmus lernen und zukünftig noch genauere Einschätzungen liefern. Wichtig ist allerdings zu betonen, dass die künstliche Intelligenz keine finalen Entscheidungen trifft. Es ist also nicht etwa so, dass Gefangene beispielsweise aufgrund einer ungünstigen Prognose der Software in Einzelhaft müssen. Das Prinzip soll aber nicht nur beim Schutz vor Gewalttaten eine Rolle spielen, sondern auch bei der Suizidprävention. Auch hier könnte der Algorithmus Alarm schlagen, sobald es zu ungewöhnlichen Aktivitäten kommt.


Der Test findet in Oldenburg statt

Der für das Testprojekt im niedersächsischen Landtag verabschiedete Gesetzestext ermöglicht grundsätzlich auch den dauerhaften Einsatz einer solchen Technologie. Zuvor allerdings soll nun in Oldenburg zunächst getestet werden, ob es sich tatsächlich um eine Hilfe für die Justizbeamten handelt. Ist dies der Fall dürften anschließend auch weitere Haftanstalten mit der Technik ausgestattet werden. Beim Einsatz von künstlicher Intelligenz in der Justiz ist grundsätzlich allerdings eine gewisse Zurückhaltung geboten. In den Vereinigten Staaten etwa werden oft Algorithmen genutzt, um die Wahrscheinlichkeit zu berechnen, mit denen Gefangene nach ihrer Entlassung wieder rückfällig werden. Darauf wiederum basieren dann Entscheidungen über eine mögliche Bewährung. Das Problem: Weil die künstlichen Intelligenzen mit Daten aus der Vergangenheit arbeiten, spiegeln sie auch die darin enthaltenen Vorurteile wieder. Minderheiten wurden daher durch das Tool systematisch benachteiligt.

Via: NDR

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.