Ein Team von Forschern der University of Toronto hat einen innovativen Algorithmus entwickelt, der moderne Gesichtserkennungssysteme dynamisch stört und so die Privatsphäre schützt.

Unter der Leitung von Professor Parham Aarabi und Doktorand Avishek Bose setzt das Team auf eine Deep-Learning-Methode namens „Adversarial Training“. Dabei treten zwei KI-Algorithmen gegeneinander an: Einer erkennt Gesichter, der andere sabotiert diese Erkennung gezielt. Durch kontinuierliches Lernen verbessern sie sich gegenseitig in einem faszinierenden KI-Wettrüsten.
„Die disruptive KI kann ‚angreifen‘, wonach das neuronale Netz für die Gesichtserkennung sucht“, erklärt Bose in einem Interview. Wenn die Erkennungs-KI etwa nach Augenwinkeln Ausschau hält, passt der Algorithmus diese subtil an, um sie unauffällig zu machen. Die Änderungen sind für das menschliche Auge kaum wahrnehmbar, täuschen aber den Detektor effektiv.
Das Ergebnis wirkt wie ein diskreter Instagram-Filter zum Privatsphäreschutz. Der Algorithmus verändert gezielt spezifische Pixel, ohne das Bild zu verfälschen.
„Der Schlüssel war, die neuronalen Netze gegeneinander zu trainieren – eines schafft robustere Erkennung, das andere stärkere Störung“, betont Bose.
Nicht nur für Menschen: Gesichtserkennung funktioniert auch bei Schimpansen, Affen und Lemuren. Amazon bietet Echtzeit-Dienste an die Polizei an und speichert Tausende Fahndungsfotos. Facebook könnte Milliarden an Nutzer für seine Technologie zahlen. Tipp zur Unsichtbarkeit: Brillen, die die Erkennung täuschen.
Datenschutzbedenken wachsen: Google verkauft Türklingel mit Gesichtserkennung in Großbritannien, Amazon wird von der ACLU kritisiert, und die Londoner Polizei nutzt Systeme mit bis zu 98 % Fehlerrate.
„Anti-Gesichtserkennungssysteme stärken die Privatsphäre, da neuronale Netze immer leistungsfähiger werden“, sagt Aarabi. „Vor zehn Jahren brauchten Algorithmen manuelle Regeln – heute lernen sie autonom aus Daten und erreichen Erstaunliches.“