Die Londoner Metropolitan Police beauftragt KI-Systeme mit der nicht neidischen Aufgabe, das Internet nach Bildern von Kinderpornografie zu durchsuchen – etwas, von dem sie glaubt, dass die Technologie in „zwei bis drei Jahren“ dazu in der Lage sein wird.
Kurzfristig tun sich die Bilderkennungstools der Polizei jedoch schwer, einen nackten Körper von einem Wüstenfoto zu unterscheiden. Während die Polizei bereits Techniken des maschinellen Lernens einsetzt, um beschlagnahmte Geräte nach Bildern von Waffen, Drogen oder Geld zu scannen, hat das Toolset Probleme, wenn es um Nacktheit geht.
Siehe verwandten Beyond Pornhub:The sex rebels reclaiming adult filmHomicide in the age of Amazon:How smart speakers and wearables are revolutionate detektivarbeitDieses neuronale Netzwerk hat einen dreckigen Verstand
"Manchmal kommt es zu einer Wüste und es denkt, es sei ein anstößiges Bild oder Pornografie", sagte Mark Stokes, Leiter der digitalen und elektronischen Forensik der Met, gegenüber The Telegraph . „Aus irgendeinem Grund haben viele Leute Bildschirmschoner von Wüsten und es nimmt es auf und denkt, es sei Hautfarbe.“
Sobald das Bilderkennungssystem verfeinert ist, soll es menschlichen Beamten ermöglicht werden, die Last der Identifizierung störender Bilder auf Maschinen abzuwälzen. The Telegraph berichtet, dass die Truppe Pläne ausarbeitet, sensible Daten zu „Silicon Valley-Anbietern“ zu verschieben, was es ihr ermöglicht, die große Rechenleistung von Technologiefirmen zu nutzen und dabei zu helfen, ihre KI zu trainieren, um nach Bildern von Kindesmissbrauch zu suchen.
Diese zusätzliche Rechenleistung kann mit zusätzlichen Sicherheitsrisiken einhergehen. Die Verlagerung von einem lokal ansässigen Rechenzentrum zu einem Hub im Besitz von Amazon, Google oder Microsoft würde diesen Unternehmen – die eine große Aufmerksamkeit von Hackern auf sich ziehen – ein gewisses Maß an externer Verantwortung übertragen, um die sensiblen Daten zu schützen, die sie hosten. Es gibt zusätzliche rechtliche Probleme, da diese Anbieter die Zustimmung der Gerichte benötigen, um kriminelle Bilder zu speichern.
Es gibt auch das Problem, dass selbst die maschinellen Lernsysteme großer Technologieunternehmen nicht vor Fehlern gefeit sind, von Twitters „technischen Problemen“ rund um das Blockieren von Suchanfragen im Zusammenhang mit dem Begriff „bisexuell“ bis hin zu geschlechtsspezifischen und rassistischen Vorurteilen, die in Trainingssets eingebettet sind für neuronale Netze. Wie Alphr in unserem Blick auf das Thema berichtete, können westliche Normen oft die kulturellen Perspektiven auf aufkommende Technologien verzerren.
Im Fall der falsch bezeichneten Sanddünen scheint dies ein grundlegender Fehler bei der Bildidentifikation zu sein. Die Dinge werden wahrscheinlich viel komplizierter, wenn eine Maschine nuancierte Aspekte rund um Kontext und Absicht berücksichtigen muss.
Die KI der Met ist nicht die erste, die die Natur betrachtet und Nacktheit sieht. Letztes Jahr erstellte ein neuronales Netzwerkprojekt seine eigenen „pornografischen“ Bilder, die jedoch auf Szenen von Wüsten, Stränden und Vulkanen basierten.