Der Plan ist radikal, und er soll schon im Herbst zur Realität werden: Der Apple-Konzern möchte alle Fotos, die Berührung mit iCloud haben, auf Anzeichen von Kindesmissbrauch scannen. Das funktioniert natürlich nicht, indem sich Menschen alle die Bilder ansehen, sondern das Unternehmen nutzt ein verschlüsseltes digitales Verfahren, das dem Datenschutz dient.


Von <a href=“//commons.wikimedia.org/wiki/User:N-Lange.de“ title=“User:N-Lange.de“>N-Lange.de</a> – <span class=“int-own-work“ lang=“de“>Eigenes Werk</span>, CC BY-SA 3.0, Link

Nach einer bestimmten Trefferzahl schlägt die KI Alarm

Apple setzt sogenannte „Hashes“ ein, das sind virtuelle Fingerabdrücke von bereits bekannten Bildern, deren Kopien ein Algorithmus wiedererkennt. Die Hashes zeigen nichts Erkennbares, die eigentlichen Fotos lassen sich daraus auch nicht mehr wiederherstellen. Auf diese Weise kann der Scanner ausschließlich Bilder aufstöbern, die sich bereits im Archiv der Fahnder befinden, neu erstellte Aufnahmen fallen durchs Raster. Verdächtige Fotos erhalten ein Zertifikat; der Nutzer wird nicht informiert, aber sein Account nach einer nicht näher genannten Anzahl von Treffern gesperrt. In den USA erfolgt danach eine Meldung an das National Center for Missing & Exploited Children, eine NGO, die sich um das Wohl von Kindern kümmert. Diese Organisation soll als Nächstes die Behörden informieren.

Hashes sollen fester Teil des Betriebssystems werden

Die Hashes-Datei soll zum festen Bestandteil des Apple-Betriebssystems werden, die Aktivierung der Funktion erfolgt aber zunächst nur auf US-amerikanischen Accounts. Beim jedem System-Upgrade erhält die Liste der Hashes Zuwachs, so bleibt der Algorithmus stets auf dem Laufenden. Bevor es losgeht, müssen aber noch einige rechtliche Dinge auf den Tisch, die vor allem den Datenschutz betreffen. Beispielsweise könnte die Gefahr bestehen, dass andere Hashes auf die Geräte geschleust werden, um weitere Inhalte auszustöbern. Oder autoritäre Staaten könnten sich die Technik für ihre Zwecke zunutze machen. Hier gilt es, nach Möglichkeit technische Grenzen zu setzen.


Eine Zusatzfunktion soll Eltern warnen, wenn ihr Kind bei iMessage Bilder mit nackten Menschen erhält – oder diese versendet. Die Software meldet sich nicht bei Apple, sondern ausschließlich bei den Erziehungsberechtigten.

Quelle: t3n.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.