DeuAq.com >> Leben >  >> Elektronik

Diese seltsame KI-„Tarnung“ kann verhindern, dass Sie von Gesichtserkennungssoftware identifiziert werden

Siehe verwandten Mord im Zeitalter von Amazon:Wie intelligente Lautsprecher und Wearables die Detektivarbeit revolutionieren. Wie man vollständig verschwindet:Tragen Sie eine Brille, die die Gesichtserkennung täuscht

Der Umfang der Gesichtserkennung für groß angelegte Überwachungen steht erst am Anfang.

Im September dieses Jahres hat Moskau sein CCTV-Netzwerk an ein Gesichtserkennungssystem angeschlossen. New York plant, die Gesichtserkennung über Brücken und Tunnel hinweg einzuführen. Londons Gesichtserkennungsdatenbank wurde dafür kritisiert, dass sie „weit über Haftzwecke hinausgeht“, und China bringt all dies auf eine ganz neue Ebene der totalen staatlichen Überwachung.

Aber die Erfindung des Schiffes führte auch zur Erfindung des Piraten. Eine Reihe von Projekten wurde gestartet, die zeigen, wie diese Erkennungssysteme gefälscht, umgangen oder gekapert werden können. Das neueste ist ein Computer-Vision-Forschungsstück der University of Illinois, bei dem Tarnung verwendet wird, um die Objekterkennung in neuronalen Netzwerken zu täuschen.

Diese Methode beruht auf „kontradiktorischen Beispielen“; eine Möglichkeit, ein maschinelles Lernsystem mit leicht modifizierten Daten anzugreifen – die für einen Menschen oft nicht wahrnehmbar sind – die so unterschiedlich sind, dass das System sie falsch klassifizieren kann. In ihrem Artikel erklären Jiajun Lu, Hussein Sibai und Evan Fabry:„Wenn es gegnerische Beispiele gibt, die einen Detektor täuschen könnten, könnten sie dazu verwendet werden, (zum Beispiel) böswillig Sicherheitsrisiken auf Straßen zu schaffen, die mit intelligenten Fahrzeugen bevölkert sind.“

Diese seltsame KI-„Tarnung“ kann verhindern, dass Sie von Gesichtserkennungssoftware identifiziert werden

Um dies zu demonstrieren, erstellte das Team „drei gegnerische Stoppschilder“, die die Art der Objekterkennung blockieren sollen, die von autonomen Autos verwendet wird. Als diese verzerrten Bilder gedruckt und auf tatsächliche Stoppschilder geklebt wurden, wurde nur das extremste Beispiel vom Objekterkennungssystem nicht erkannt.

Die Forscher hatten mehr Glück beim Spoofing der Gesichtserkennung, indem sie eine Google DeepDream-ähnliche Maske verwendeten, um die Gesichtszüge eines Subjekts zu verzerren. Dieser digitale Angriff umfasste das Überlagern der Tarnung auf einem bereits vorhandenen Video, wie in der Veröffentlichung beschrieben:„Wir wenden unsere Angriffsmethode auf einen Trainingssatz von Videos an, um eine gegnerische Störung der Cross-View-Bedingung zu erzeugen, und wenden diese Störung auf diese Testsequenz an um die angegriffene Sequenz zu generieren.“

Da die Tarnung darin besteht, das angreifende System auf ein bestimmtes Video zu trainieren, würde es vermutlich dazu verwendet werden, Aufnahmen zu manipulieren, um bestimmte Personen unauffindbar zu machen – anstatt eine Person in Echtzeit zu blockieren. Andere haben letzteres jedoch untersucht. Letztes Jahr gelang es Forschern der Carnegie Mellon University, Gesichtserkennungs-Täuschungsgestelle für Brillen herzustellen, die ein bisschen so aussehen, als würde Timmy Mallett etwas tragen.

Diese bunten Brillen sind für die Gesichtserkennungsüberwachung vielleicht nicht wahrnehmbar, aber sie sind bei weitem nicht für alle anderen im Raum unsichtbar.

Bilder:Jiajun Lu, Hussein Sibai und Evan Fabry