Im Stadtrat von San Francisco (USA) wurde eine Verordnung vorgeschlagen, durch die staatliche Gesichtserkennungs-Massnahmen verboten werden sollen. «Techgarage» hat die Argumente, die für und gegen Gesichtserkennung im öffentlichen Raum sprechen, zusammengetragen und kommt zu einer eindeutigen Antwort auf die Frage, ob diese neue Technik verboten werden sollte.
Wo Gesichter bereits gescannt werden
Es gibt unterschiedliche Einsatzmöglichkeiten der Gesichtserkennungs-Technologie. Sie wird zum Beispiel bei Apples neuesten iPhones zur Entsperrung des Gerätes genutzt oder zur Autorisierung von Zahlungen.
An öffentlichen Orten wird Gesichtserkennung unter anderem zum Aufspüren von Kriminellen eingesetzt. In Moskau werden bereits tausende Kameras genutzt, über die die Gesichter von Passanten mit Personen abgeglichen werden, die von der Polizei gesucht werden. Auch in Grossbritannien gleicht die Polizei selbst angefertigte Beobachtungslisten mit Aufnahmen aus Gesichtserkennungs-Kameras ab.
Am Flughafen Zürich werden ebenfalls schon Gesichter über Kameras identifiziert – allerdings nur zur Passkontrolle. In Deutschland nutzt unter anderem die Hamburger Polizei einen automatisierten Gesichts-Abgleich, um Personen zu suchen, die man im Rahmen der Ausschreitungen beim G20-Gipfel per Video aufgenommen hat. Sowohl der Hamburgische Datenschutzbeauftragte als auch der Bundesbeauftragte für den Datenschutz in Deutschland halten diese «biometrische Auswertung von Videomaterial» jedoch für rechtswidrig, da noch keine Rechtsgrundlage dafür existiere.
Gesichtserkennung kann des Weiteren zur Analyse eingesetzt werden. In China sei bereits im öffentlichen Raum mit Gesichtserkennungs-Kameras experimentiert worden, um in Verbindung mit Künstlicher Intelligenz vorherzusagen, ob sich jemand an die Regeln halten werde oder nicht. Ausserdem würden in China auch politische Aktivisten mit Hilfe von Gesichtserkennungs-Massnahmen gesucht.
Pro Gesichtserkennung
Als Argument für die Nutzung von Gesichtserkennungs-Technik im öffentlichen Raum wird ins Feld geführt, dass dies dem Bürger diene, da die Arbeit der Strafverfolgungsbehörden erleichtert würde. In Zeiten von Terrorismus und organisierter Kriminalität hat das auch eine gewisse Überzeugungskraft. Des Weiteren könne die Sicherheit im Strassenverkehr verbessert werden, indem Verkehrsdelikte besser aufgeklärt werden könnten, werben australische Behörden für den Einsatz der neuen Technologie.
In einem aktuellen Aufsatz der Wissenschaftszeitschrift «MIT Technology Review» werden weitere Pro-Argumente für Gesichtserkennung zitiert. Danach würde mitunter behauptet, die Technik könne genauer arbeiten als Menschen. Das Sicherheitspersonal eines Flughafens könne müde werden, ein Computer nicht. Ein weiterer Vorteil der Technik sei ihre Unparteilichkeit: Ein Gesichtserkennungs-System könne daher mit Hilfe von Künstlicher Intelligenz besser als die Polizei einschätzen, ob jemand verdächtig sei.
Contra Gesichtserkennung
Die Nicht-Regierungs-Organisation «Human Rights Law Centre» warnt, Studien hätten aufgezeigt, dass Gesichtserkennungs-Technologie das Risiko der Diskriminierung bestimmter Ethnien begünstige. Denn in diesen Studien sei herausgekommen, dass Gesichtserkennungs-Systeme eine Vorliebe für diejenige Ethnie hätten, die in dem Gebiet, in dem das System entwickelt worden sei, vorherrschend sei. Gegenüber ethnischen Minderheiten gäbe es überproportional viele Fehlermeldungen, wodurch Angehörige dieser Minderheiten von der Polizei häufiger untersucht und überwacht werden könnten, da das System keine einwandfreie Identitätsfeststellung durchführen konnte. Auch sei denkbar, dass bestimmte Personengruppen mangels korrekter Erfassung durch Gesichtserkennungs-Systeme daran gehindert sein könnten, einer Beschäftigung nachzugehen. Gleiches gelte für den Zugang zu Krediten, Versicherungen oder anderen Leistungen.
In der Studie «Gender Shades», die unter Leitung der Forscherin Joy Buolamwini vom «MIT Media Lab» durchgeführt wurde, sei im Jahr 2018 herausgekommen, dass das Gesichtserkennungs-System von IBM bei dunkelhäutigen Frauen eine 34,4 Prozentpunkte höhere Fehlerquote gehabt habe als bei hellhäutigen Männern. Das System von Microsoft schnitt mit 20,8 Prozentpunkten Unterschied am besten ab; die Gesichtserkennung Face++ wies eine Differenz von 33,7 Prozentpunkten auf.
In Bezug auf das von Amazon entwickelte System sei die Nicht-Regierungs-Organisation «ACLU» (American Civil Liberties Union) zu dem Ergebnis gekommen, dass es nicht-weisse Personen häufiger falsch identifiziere als weisse.
Laut der «MIT Technology Review» bestünde das Problem darin, dass Gesichtserkennungs- und Analysesysteme nicht mit repräsentativen Datensätzen trainiert würden. Das verwendete Material würde viel weniger Fotos von Frauen und Personen mit dunkler Hautfarbe enthalten als Bilder von Männern und Personen mit heller Hautfarbe. Mit diesen Ungleichheiten würden in der Gesellschaft bestehende Ungerechtigkeiten über Gesichtserkennungs- und Analysesysteme aufrechterhalten und bei längerem Einsatz sogar noch verschärft.
Es habe zwar mittlerweile Verbesserungen an den angesprochenen Systemen gegeben, wie deren erneute Überprüfung durch Buolamwinis Team in diesem Jahr gezeigt habe. Zwei neu aufgenommene Systeme, eines von Amazon und eines von Kairos, schnitten allerdings ähnlich schlecht ab wie die anderen drei überprüften Systeme im Jahr 2018. Vermutlich werden Amazon und Kairos die kritischen Forschungsergebnisse dazu nutzen, ihre Systeme zu überarbeiten, um sie von Diskriminierung zu befreien.
Selbst die fairste und genaueste Gesichtserkennungs-Software könnte aber eingesetzt werden, um bürgerliche Freiheiten zu beeinträchtigen, wie es in der «MIT Technology Review» heisst. Als Beispiel wird etwa der Versuch Amazons genannt, seine Gesichtserkennungs-Technologie an die US-amerikanische Sicherheitsbehörde ICE (Immigration and Customs Enforcement) zu verkaufen, um damit illegale Migranten im öffentlichen Raum aufzuspüren. Die Nachrichtenseite «Daily Beast» berichtete darüber. Das Problem: Die ICE-Behörde sei dafür bekannt, auch medizinische Einrichtungen zu überwachen, um Illegale zu überführen. Wenn vor diesen Einrichtungen permanent Kameras liefen, deren Aufnahmen in Gesichtserkennungs-Systeme eingespeist würden – von Amazon oder einem anderen Anbieter – wäre es für die Betroffenen unmöglich, an diesen Orten medizinische Behandlungen in Anspruch zu nehmen.
Als weiteres Beispiel für eine mögliche Beeinträchtigung von Bürgerfreiheiten durch den Einsatz von Gesichtserkennungs-Technologie beruft sich die «MIT Technology Review» auf eine Recherche der Nachrichten-Organisation «The Intercept». Danach habe IBM Zugang zu Filmmaterial aus den Überwachungskameras der New Yorker Polizei gehabt und habe seine Technik damit dahingehend entwickelt, die Ethnizität an Hand von Gesichtern festzustellen. Anschliessend sei die IBM-Technologie in öffentlichen Überwachungskameras getestet worden. Die New Yorker Bürger seien über diesen Test nicht informiert gewesen.
Cynthia Wong von der Menschenrechts-Organisation «Human Rights Watch» argumentiert, dass durch eine polizeiliche Überwachung von öffentlichen Räumen die Meinungs- und Versammlungsfreiheit gefährdet sei. Man stelle sich vor, dass die Polizei Fotos von einer Demonstration in das System einspeisen würde, um Informationen über die Teilnehmer herauszufinden. Dies hätte eine abschreckende Wirkung auf Menschen, die auf dem Wege des öffentlichen Protestes ihre Meinung kundtun möchten.
Das Forschungsinstitut «AI Now» von der Universität New York warnt in seinem Jahresbericht 2018 unter anderem vor der sogenannten Affekterkennung. Diese Unterkategorie der Gesichtserkennung soll angeblich in der Lage sein, die Persönlichkeit einer Person zu erkennen sowie Gefühle, die geistige Gesundheit oder etwa wie sehr sich ein Mitarbeiter bei seiner Arbeit einbringt. Da diesem Zweig der Gesichtserkennungs-Technologie keine ausreichenden wissenschaftlichen Forschungen zu Grunde liegen würden, wäre ihre Anwendung etwa bei der Vergabe von Versicherungen, Arbeits- oder Ausbildungsplätzen sowie in der Polizeiarbeit hoch riskant.
In China hätten softwaregestützte Vorhersagen anhand von Datenmaterial aus Überwachungskameras, Krankenakten oder etwa Bankaufzeichnungen bereits zu Verhaftungen von Verdächtigen geführt, berichtete «Human Rights Watch» letztes Jahr.
Fazit
Verhaltens-Vorhersagen durch Künstliche Intelligenz in Verbindung mit Gesichtserkennung sind höchst problematisch. Die Menschen werden total verunsichert, wie sie sich in der Öffentlichkeit verhalten sollen. Wer versucht, sich unauffällig zu verhalten, könnte sich eben dadurch verdächtig machen. Der Staat muss verhindern, dass eine Technologie jeden Bürger grundsätzlich als potentiellen Kriminellen verdächtigt, sagt auch Cynthia Wong von «Human Rights Watch».
Google habe sogar den Verkauf seiner Gesichtserkennungs-Technologie eingestellt, bis sichergestellt sei, dass die Technik nicht missbraucht werden könne. Um eine sichere Technik zu erhalten, brauche es «algorithmische Gerechtigkeit», sagt Joy Buolamwini in der «MIT Technology Review»: «Ohne algorithmische Gerechtigkeit kann algorithmische Genauigkeit/ technische Fairness KI-Tools schaffen, die als Waffe benutzt werden können.»
Selbst in Fällen, in denen die Gesichtserkennungs-Technik nur zum Abgleich von Fotos eingesetzt wird – ohne eine Verhaltens-Vorhersage zu unternehmen – sollte die Technik angesichts der mitunter hohen Fehlerquoten verboten werden, um die Diskriminierung von bestimmten Personenkreisen zu verhindern. Erst wenn sichergestellt ist, dass die Fehleranfälligkeit Richtung Null tendiert, wäre die Technologie reif für den Einsatz.