Ist Gesichtserkennungstechnologie rassistisch?
Es werden Bedenken bezüglich des Gesichtserkennungssystems von Amazon geäußert, das 28 Mitglieder des US-Kongresses mit Polizeiverdächtigen verwechselt hat

Dieser Inhalt unterliegt dem Urheberrecht.
Gesichtserkennungstechnologie ist ein immer häufigerer Bestandteil des modernen Lebens und wird für alles verwendet, vom Entsperren von iPhones bis hin zu fortschrittlicher Überwachungstechnologie. Es werden jedoch Bedenken geäußert, dass die Gesichtserkennungstechnologie rassistische Vorurteile aufweisen kann, und dies kann potenziell schwerwiegende Folgen haben.
Kommerzielle Gesichtserkennungssoftware hat sich wiederholt als weniger genau bei Menschen mit dunklerer Haut erwiesen, schreibt Gizmodo . Bürgerrechtler machen sich Sorgen über die beunruhigend gezielte Art und Weise, wie Gesichtsscans von der Polizei eingesetzt werden können.
Das jüngste Beispiel hierfür war Amazon und seine neue Technologie Rekognition.
Das Gesichtserkennungstool, das Amazon an Webentwickler verkauft, identifizierte fälschlicherweise 28 Mitglieder des US-Kongresses – eine überproportionale Anzahl von ihnen Farbige –, wie die Polizei aufgrund von Fahndungsfotos vermutet Reuters .
Dies ist nicht der erste Vorfall dieser Art. Mit zunehmender Verbreitung der Gesichtserkennungstechnologie stellen immer mehr Unternehmen fest, dass ihre Algorithmen rassistisch voreingenommen sind.
Anfang des Jahres geriet Google unter Beschuss, weil es einen rassistischen Algorithmus nicht vollständig repariert hatte, auf den der Software-Ingenieur Jacky Alciné ursprünglich im Jahr 2015 hingewiesen hatte. Er bemerkte, dass die Bilderkennungsalgorithmen in Google Fotos seine schwarzen Freunde als Gorillas klassifizierten. Anstatt seine Gesichtserkennungstechnologie zu reparieren, blockierte Google seine Bilderkennungsalgorithmen, um Gorillas insgesamt zu identifizieren.
Ein ähnliches Problem trat bei Apples neuer Gesichts-ID-Technik zum Entsperren seiner Telefone auf.
Im vergangenen Dezember wurde festgestellt, dass die Face ID-Technologie von Apple zwei chinesische Frauen nicht unterscheiden konnte. Apple rühmt sich, dass seine Face ID-Technologie die fortschrittlichste der Welt ist und sagt, dass die Wahrscheinlichkeit, dass eine zufällige Person sie erfolgreich zum Entsperren eines Smartphones verwenden kann, nach Angaben der ungefähr 1 zu 1.000.000 beträgt Anfragender . Das Unternehmen war jedoch gezwungen, einer Chinesin, die berichtete, dass ihre Kollegin ihr iPhone X mit der Gesichtsscan-Technologie entsperren konnte, eine Rückerstattung auszustellen, obwohl sie die Gesichtserkennungseinstellungen mehrmals neu konfiguriert hatte.
Der Frau, bekannt als Yan, wurde eine Rückerstattung ausgestellt und sie erhielt ein neues Telefon – stieß jedoch erneut auf das gleiche Problem.
Dies wirft die Frage auf: Warum treten diese Probleme auf und können sie gelöst werden?
Gizmodo berichtet, dass die MIT-Forscher Joy Buolamwini und Timnit Gebru herausgefunden haben, dass dunklere Gesichter in den Datensätzen, mit denen sie trainiert werden, unterrepräsentiert sind. Dadurch wird die Gesichtserkennung bei dunklen Gesichtern ungenauer.
Um die Probleme rassistischer Voreingenommenheit zu lösen, sind nicht nur technische Maßnahmen erforderlich, sondern auch harte Grenzen dafür, wie und wann Gesichtsscans zum Schutz gefährdeter Gemeinschaften eingesetzt werden können.
Selbst dann sei die Gesichtserkennung unmöglich, ohne Rassismus in der Strafjustiz zu bekämpfen, in der sie unweigerlich eingesetzt werde.