Ein Team von technischen Forschern der University of Toronto hat einen Algorithmus entwickelt, um Gesichtserkennungssysteme dynamisch zu stören.
Unter der Leitung von Professor Parham Aarabi und dem Doktoranden Avishek Bose verwendete das Team eine Deep-Learning-Technik namens „Adversarial Training“, bei der zwei Algorithmen der künstlichen Intelligenz gegeneinander antreten.
Aarabi und Bose entwarfen eine Reihe von zwei neuronalen Netzwerken, das erste identifiziert Gesichter und das andere arbeitet daran, die Gesichtserkennungsaufgabe des ersten zu stören. Die beiden kämpfen ständig und lernen voneinander, wodurch ein andauerndes KI-Wettrüsten entsteht.
„Die disruptive KI kann ‚angreifen‘, wonach das neuronale Netz für die Gesichtserkennung sucht“, sagte Bose in einem Interview.
Nicht nur für Menschen:Gesichtserkennung kann auch für Schimpansen, Affen und Lemuren funktionierenAmazon verkauft Echtzeit-Gesichtserkennungsdienste an die Polizei und wird verwendet, um Tausende von Fahndungsfotos zu speichern Laut Bericht könnte Facebook gezwungen sein, Milliarden an Benutzer für die Verwendung seiner Gesichtserkennungstechnologie auszuzahlen. Wie man vollständig verschwindet:Tragen Sie eine Brille, die die Gesichtserkennung täuscht
„Wenn die Erkennungs-KI beispielsweise nach den Augenwinkeln sucht, passt sie die Augenwinkel an, damit sie weniger auffallen. Es erzeugt sehr subtile Störungen im Foto, aber für den Detektor sind sie signifikant genug, um das System zu täuschen.“
Das Ergebnis ähnelt einem Instagram-Filter, der zum Schutz der Privatsphäre auf Fotos angewendet werden kann. Der Algorithmus zielt auf sehr spezifische Pixel im Bild ab und nimmt subtile Änderungen vor, die für das menschliche Auge kaum wahrnehmbar sind.
„Der Schlüssel hier war, die beiden neuronalen Netze gegeneinander zu trainieren, wobei eines ein immer robusteres Gesichtserkennungssystem und das andere ein immer stärkeres Werkzeug zur Deaktivierung der Gesichtserkennung schuf“, fügte Bose hinzu.
Bedenken hinsichtlich Datenschutz und Datensicherheit sind groß, da Fragen an Unternehmen wie Google, Amazon und die Metropolitan Police in London gestellt werden, die Gesichtserkennungstechnologie implementieren und bereitstellen.
Google hat Türklingeln mit Gesichtserkennungskameras vorgestellt, die in britischen Vorstädten zum Verkauf angeboten werden, was Bedenken hinsichtlich einer Verletzung der Privatsphäre aufkommen lässt.
Amazon ist von der American Civil liberties Union (ACLU) und anderen unter Beschuss geraten, weil es der US-Polizei seine Gesichtserkennungssoftware zur Verfügung gestellt hat.
Die Londoner Met-Polizei soll eine „gefährlich ungenaue“ Gesichtserkennungstechnologie verwenden, von der behauptet wird, dass sie eine Fehlerquote von 98 % aufweist.
Aarabi glaubt, dass „Anti“-Gesichtserkennungssysteme der Privatsphäre zugute kommen können, da die neuronalen Netze immer fortschrittlicher werden.
„Persönliche Privatsphäre ist ein echtes Problem, da die Gesichtserkennung immer besser wird“, fügte Aarabi hinzu. „Dies ist eine Möglichkeit, wie nützliche Anti-Gesichtserkennungssysteme diese Fähigkeit bekämpfen können.“
„Vor zehn Jahren mussten diese Algorithmen von Menschen definiert werden, aber jetzt lernen neuronale Netze von selbst, Sie müssen ihnen nichts außer Trainingsdaten liefern.“
„Am Ende können sie einige wirklich erstaunliche Dinge tun. Es ist eine faszinierende Zeit auf diesem Gebiet, es gibt ein enormes Potenzial.“