DeuAq.com >> Leben >  >> Elektronik

KI der britischen Polizei verwechselt Wüsten mit Nacktbildern: Herausforderungen bei der Bekämpfung von Kinderpornografie

Die Londoner Metropolitan Police setzt auf KI-Systeme, um das Internet systematisch nach Bildern von Kinderpornografie zu durchsuchen. Experten erwarten, dass diese Technologie in "zwei bis drei Jahren" einsatzbereit sein wird.

KI der britischen Polizei verwechselt Wüsten mit Nacktbildern: Herausforderungen bei der Bekämpfung von Kinderpornografie

Kurzfristig stoßen die Bilderkennungs-Tools jedoch an Grenzen: Sie unterscheiden nur schwer zwischen einem nackten Körper und einem Wüstenfoto. Während maschinelles Lernen bereits erfolgreich für die Suche nach Waffen, Drogen oder Geld auf beschlagnahmten Geräten eingesetzt wird, scheitert es bei Nacktheit.

Siehe verwandte Artikel: Beyond Pornhub: The sex rebels reclaiming adult film, Homicide in the age of Amazon: How smart speakers and wearables revolutionieren Detektivarbeit, Dieses neuronale Netzwerk hat einen dreckigen Verstand.

"Manchmal kommt es zu einer Wüste und es denkt, es sei ein anstößiges Bild oder Pornografie", erklärte Mark Stokes, Leiter der digitalen und elektronischen Forensik der Met, gegenüber The Telegraph. "Aus irgendeinem Grund haben viele Leute Bildschirmschoner von Wüsten, und es nimmt es auf und denkt, es sei Hautfarbe."

Sobald das System verfeinert ist, soll es Beamten die belastende Aufgabe der Bildidentifikation abnehmen. Die Met plant, sensible Daten an "Silicon-Valley-Anbieter" zu übertragen, um deren Rechenpower zu nutzen und KI-Modelle für die Suche nach Kindesmissbrauch zu trainieren.

Diese Cloud-Nutzung birgt jedoch Risiken: Die Verlagerung zu Plattformen von Amazon, Google oder Microsoft erhöht die Angriffsfläche für Hacker. Zudem erfordern Gerichtsurteile die Speicherung krimineller Bilder.

Selbst fortschrittliche Systeme großer Tech-Firmen sind fehleranfällig – von Twitters Blockadeprobleme bei "bisexuell" bis zu Bias in Trainingsdaten. Wie Alphr berichtete, verzerren westliche Normen oft kulturelle Perspektiven.

Beim Sanddünen-Fehler handelt es sich um einen grundlegenden Erkennungsdefekt. Komplexer wird es bei Kontext und Absicht.

Die Met-KI ist nicht allein: Ein neuronales Netzwerk erzeugte kürzlich "pornografische" Bilder aus Wüsten-, Strand- und Vulkanszenen.