top of page

DEEP FOOL

Seit Jahren werden die Grenzen der eigenen Privatsphäre verschoben. Facial Recognition Technologien tauchen flächendeckender in unseren Stadtbildern auf. Die Systeme nehmen Einzug in unsere Mobiltelefone oder den social scores. 

Die Gegner dieser Systeme sehen sehen hinter jeder Kamera eine Firma oder dem politisches Regime mit realen Menschen, die einen Nutzen aus der Anwendung ziehen. 

Doch was passiert, wenn sich die KI selbst in Ihrer Wahrnehmung irrt? Wenn sie eine andere Realität erkennt, als tatsächlich vorhanden ist?

 

Mit dem beginn der Pandemie waren die Facial recognition Systeme mit einer neuen Problem konfrontiert: Die Gesichter waren nur zu 1/3 durch Masken verhüllt. Doch in nur wenigen Monaten haben die Pattern recognition Systeme gelernt, Menschen nur durch die Augenpartie zu erkennen.

Die Annahme, eine einfache Maskierung, würde die Identität schwerer erkennbar machen, wurde durch die Corona-Pandemie  widerlegt. Welche Formen der Camouflage bleiben uns Menschen noch übrig? 

 

Dieses Kunstwerk beschäftigt sich mit der Transformation des Menschen in einen Toaster:

"adversarial attacks" heißt eine Methodik, mit der AIs getäuscht werden.

Herkömmliche Camouflage wehren den Versuch ab, daß ein individuelle Gesicht einer Person aus einer Datenbank richtig zugewiesen werden kann. Wenn jedoch ein Mensch nicht identifiziert werden konnte, bleibt dennoch ein Verdachtsmoment zurück - in den Systemen entsteht dadurch ein Alarmsignal. 

"adversarial attacks" signalisieren dem System, daß auf dem Aufnahmen überhaupt kein Mensch zu sehen ist. Mit adversarial Patches verwandeln sie die Menschen in einen Toaster, einen Hund oder ein Tomate. Die Facial recognition systems sehen daher keinen Grund die Aufnahmen mit Bildern aus der eigenen Datenbank ab zu gleichen - der Mensch wird wahrhaftig unsichtbar.

 

Das Kunstwerk bringt diese digitale Camouflage in die Realität: einer Masken-Modelinie, präsentiert in einem Shopsystem. Die gezeigten Motive sind real funktionierende "adversarial attacks". Das Artwork macht darauf aufmerksam, daß komplexe Systeme auch Angriffspunkte für Attacken bieten - und das die Realitätswahrnehmung keineswegs immer Objektiv sind.

SvenSauer_AlexanderMink_DestortedReality_001.jpg
SvenSauer_AlexanderMink_DestortedReality_003.jpg
SvenSauer_AlexanderMink_DestortedReality_002.jpg

KOLLABORATIONSPARTNER

​

XXXXX

XXXXX
XXXXX

CREDITS

 

Künstler: Sven Sauer & Alexander Mink

​

​

bottom of page