In einer anderen Haut stecken
Algorithmen bestimmen unseren Alltag – manche auf diskriminierende Weise, kritisiert die Künstlerin Echo Can Luo.
Unter dem Begriff „Face Tracking“ ist eine automatische Gesichtserkennung und verfolgung zu verstehen. Dabei kommt eine Interaktion zwischen Mensch und Computer bzw. Smartphone zustande, wie zum Beispiel durch eine Webcam. Eingesetzt wird diese Technik u.a. zur Mimik und Bewegungserkennung. Immer stärker verbreiten sich algorithmische Entscheidungsverfahren, weil sie die konsistente Behandlung großer Fallzahlen ermöglichen und daher hocheffizient sind. Der Mensch werde durch die Neuen Medien gerastert, normiert und getrackt, findet die Kasseler Künstlerin Echo Can Luo. Algorithmen träfen wichtige Entscheidungen für viele Bereiche unseres Lebens: ob wir einen Kredit erhalten, einen Job bekommen, welche Nachrichten wir lesen. Nicht alle Menschen aber behandele die Technik gleich: Zum Beispiel wollte ein Mann asiatischer Herkunft 2016 sein Passfoto online aktualisieren. Die Gesichtserkennungssoftware habe ihn aufgefordert, die Augen zu öffnen.
Luo studiert Neue Medien an der Kunsthochschule Kassel. 2017 erhielt sie den studentischen Preis „Less Adorno, more play“ beim Rundgang, 2018 eine lobende Erwähnung in der Ausstellung EXAMEN. Sie sagt: „Die meisten 3D Softwares für Face Tracking sind auf die europäische Knochenstruktur, Hautfarbe und Gesichtsform ausgerichtet. Personen mit anderen ethnischen Wurzeln haben oft Schwierigkeiten, von den FaceTrackingProgrammen erkannt zu werden.“ Die zugrunde liegenden Rechen und Betriebsfehler werden von den Entwicklern, die die Maschinenstatistiken und Daten gesammelt hatten, verursacht und somit bestimmte ethnische Typen bevorzugt. „Die Entwicklerinnen und Entwickler sind im Vorfeld beeinflusst, ohne es vielleicht selbst zu merken“, so Luo.
Das Problem sei aber größer als gedacht. Im Rahmen ihres Projekts „Nicely nicely all the time!“ habe Luo festgestellt, dass es zudem unmöglich war, generative 3DSoftware zu verwenden, um nichteuropäische Gesichter zu modellieren. Zu diesem Ergebnis gelangte die Künstlerin, nachdem sie bis zu 20 3DModellingSoftwares wie Faceshift, MakeHuman oder Blender testete: „Je nach benutzter Software wird z.B. die Hautfarbe einer Person unterschiedlich eingescannt und kategorisiert. Letztendlich werden einzelne Gesichter durch einen Algorithmus diskriminierend gerastert. Dies wiederum wirkt sich im 3DModelling negativ aus, wenn man ethnisch vielfältig arbeiten möchte“, sagt Luo.
Für ihr Projekt „Nicely nicely all the time!“ führte sie Interviews mit Betroffenen zu diesem Thema. Zudem erstellte sie interaktive Avatare mit Gesichtsmerkmalen unterschiedlicher ethnischer Herkunft. Schließlich präsentierte sie ihre Ergebnisse in diversen Ausstellungen als interaktive Medieninstallation – auch auf der Ausstellung EXAMEN 2018. Während die Besucher eine der Geschichten aus den Interviews am Mikrofon vorlesen, werden ihre Gesichter durch die der animierten Avatare ersetzt. Dadurch machen sie in einer anderen, virtuellen Haut neue Erfahrungen. „Vor meiner Recherche wusste ich nicht, wie gravierend diese Diskriminierung ist. Ich habe all diese Tools nur konsumiert, ohne diese zu hinterfragen. Ich möchte die Programmierer und Softwareentwickler auf das Problem der diskriminierenden Algorithmen hinweisen“, so die Medienkünstlerin.
Viele in Deutschland lebende Menschen mit unterschiedlicher Herkunft haben Erfahrungen mit Diskriminierung und Rassismus gemacht. So auch Luo, die seit 2014 in Kassel lebt. „In der Bahn musste ich mir Sprüche anhören, ich solle nach China zurückkehren.“ Ihr Projekt liege ihr deshalb sehr am Herzen: „Diskriminierung und Rassismus betreffen uns alle. Wir tragen eine gesellschaftliche Verantwortung, dagegen anzukämpfen, und zwar durch Aufklärung“, betont die Künstlerin.
Auch in ihrem aktuellen Projekt beschäftigt sie sich weiter mit digitaler Diskriminierung. Viele große Unternehmen wie Google, Facebook oder Yahoo hätten ein DataBaseProblem. Luo untersucht als Meisterschülerin bei Prof. Joel Baumann die DataBase einzelner Unternehmen. Beispielsweise würden einige Smartphones keine asiatischen Gesichter erkennen.
(Text: Cigdem Özdemir)
Homepage der Künstlerin:
http://echocanluo.com