analyse & kritik

Zeitung für linke Debatte & Praxis

|ak 657 | International

Die Datenbank mit drei Milliarden Bildern

Nach der Empörung über die US-Firma Clearview ist die automatische Gesichtserkennungs längst nicht vom Tisch

Von Susanne Lang

Pilotprojekt am Berliner Südkreuz Foto: C.Suthorn/Wikimedia CC-by-sa-4.0

Mitte Januar gab es ein kurzes Beben der Empörung im Internet. Am 18. Januar berichtete die New York Times über Clearview AI, ein US-amerikanisches Start-Up, das sich auf Gesichtserkennung spezialisiert hat. Die Geschäftsidee von Clearview besteht aus zweierlei: zum einen einer Software, die menschliche Gesichter auf Bildern anhand festgelegter Merkmale wie dem Abstand der Augen zueinander, von Mund und Nase und anderer festgelegter Punkte vermisst, katalogisiert und vergleicht. Zum anderen aus einer Datenbasis, die aus einer ungeheuerlichen Masse von Bildern menschlicher Gesichter besteht. Drei Milliarden Bilddateien hat das Unternehmen eigenen Angaben zufolge im Internet gesammelt oder besser: gescraped, also von anderen Websiten kopiert, von Facebook, Youtube, Twitter und viele mehr. Das Ergebnis beschreibt Clearview AI als eine Art Google für Gesichter: Wenn mensch ein Foto in der App hochlädt, wird dieses analysiert und mit dem Datenbestand von drei Milliarden Fotos abgeglichen. Als Treffer werden dann Bilder von Personen mit entsprechenden Links zu deren öffentlich verfügbaren Bildern präsentiert. Wenn das Bilder von drei Milliarden Menschen wären, wären das zwei Fünftel der Weltbevölkerung. Es ist aber unklar, wie viele Menschen mehrfach abgebildet sind und wie viele davon überhaupt Fotos real existierender Menschen sind.

Bislang will Clearview seine Technologie nur Strafverfolgungsbehörden und anderen Unternehmen und Institutionen zur Verfügung stellen, die Kriminelle, Straftäter*innen oder andere Störenfriede identifizieren wollen: Polizeibehörden, Banken oder private Sicherheitsfirmen. Bislang hat Clearview nach eigenen Angaben Nutzungsverträge mit 600 Polizeibehörden abgeschlossen – vermutlich sind das alles US-amerikanische Behörden. Sie werben damit, dass die Polizisten nur ein Foto oder Video von ihrem Handy oder von dem eines Zeugen oder einer Überwachungskamera hochladen brauchen und innerhalb von Sekunden identifizierte Personen ausgespuckt bekommen. Die Kämpfe gegen Terrorismus und Kinderpornografie werden beispielhaft erwähnt. Das Leben der Bürger*innen könne so viel sicherer werden, wenn die Ermittlungsarbeit endlich effizient würde.

Wie hoch ist die Trefferquote?

Dann begann das Beben im Internet: Anscheinend gibt es weder bei den Polizeibehörden noch auf der Website von Clearview AI ein Wissen darüber, wie genau die Software funktioniert, wer die polizeilichen Suchanfragen einsehen kann und wie die Daten gespeichert werden. Vor allem gibt es keine unabhängigen Analysen darüber, wie gut die Trefferquote ist. Gerade bei größeren Datensätzen treten falsch identifizierte Personen tendenziell häufiger auf (der sogenannte Doppelgängereffekt). Zusätzlich haben die meisten Gesichtserkennungssysteme, wie die von Amazon vermarktete »Rekognition«, Probleme beim Erkennen von Menschen, die keine weißen Männer sind. Hier kommt das fehlerhafte Identifizieren falscher Personen (false positive) wesentlich öfter vor. Doch damit nicht genug: Anscheinend hat das Start-Up viele von den 600 Verträgen über kostenlose Testversionen (Trials) bei Polizist*innen eingeworben, die dann durch ein Schneeballprinzip andere Kolleg*innen einladen konnten bis schließlich – sehr preiswerte – Verträge zustande kamen. Ein Marketingverfahren, wie es beim Verkauf von Finanztipps oder Autoversicherungen üblich ist, nicht jedoch bei zentralen polizeilichen Ermittlungsinstrumenten.

Auf den Bericht der New York Times gab es in den darauf folgenden Wochen die ersten Konsequenzen: Datenschützer beschwören die längst überfällige Regulierung von Gesichtserkennung (gehört verboten), der Generalstaatsanwalt von New Jersey hat prompt den Einsatz in allen Polizeibehörden verboten, bis eine Regulierung Klarheit verschafft. Google und Twitter haben inzwischen eine Unterlassungserklärung an Clearview AI zugestellt, da ihre Nutzungsbedingungen solcherlei Geschäftsmodelle untersagen. Sogar Innenminister Horst Seehofer (CSU) reagierte. Der hatte zuvor in einem neuen Entwurf des Bundespolizeigesetzes die Einführung automatisierter Gesichtserkennung an mehr als 100 Bahn- und Flughäfen vorgeschlagen. Zwar gab es daran Kritik von Linken, SPD, Grünen und FDP – und sogar die zivilgesellschaftliche Kampagne »Gesichtserkennung stoppen!« mobilisierte dagegen. Doch erst das Clearview-Horrorszenario bewog Seehofer dazu, den Vorschlag vorerst zurückzuziehen.

Gesichtserkennung ist Open-Source verfügbar

Ist Gesichtserkennung damit vom Tisch? Mitnichten. Clearview AI mag derzeit mit drei Milliarden den größten Bilddatenbestand anbieten, ist aber nur einer von vielen Anbietern von Gesichtserkennung. Die Softwareprogramme funktionieren zwar noch nicht so fehlerfrei, wie wir das in unseren finsteren Dystopien erwarten, doch sie wird in erstaunlicher Geschwindigkeit besser. In wenigen Jahren wird das entsprechend optimiert sein. Schon jetzt existieren gut funktionierende Gesichtserkennungssysteme (Programmierbibliotheken und trainierte Gesichtserkennungsmodelle), die sogar Open-Source verfügbar sind. Wer zusätzlich noch eine gut gepflegte Bilddatenbank hat, kann Gesichtserkennung schon heute mit erstaunlichen Trefferquoten selbst bauen. Die Journalisten Timo Grossenbacher und Felix Michel haben das in Reaktion auf die Clearview-Aufregung anhand von 230.000 öffentlich zugänglichen Instagram-Bildern von Schweizer Politiker*innen nachvollzogen. Ihre Ergebnisse haben sie am Anfang Februar beim Schweizer Sender SFR veröffentlicht. Sie waren selbst überrascht angesichts der beeindruckenden Qualität ihrer Suchergebnisse. Auch sie warnen vor einer effektiven Überwachungsmaschine.

Journalist*innen warnen vor einer effektiven Überwachungsmaschine.

Technisch gesehen ist Gesichtserkennungssoftware bereits einsetzbar, wenngleich nicht fehlerfrei. Die existierenden Fehler sind für die Einsatzszenarien bei Strafverfolgungsbehörden nicht relevant. Wenn die Software ein paar Verdächtige mehr als weniger ausspuckt, stört das die Ermittlungsarbeit nicht wirklich. Rechtlich gesehen regen sich immer mal wieder Initiativen, Gesichtserkennung pauschal zu unterbinden. Entsprechende Versuche gibt es in den USA, aber auch auf EU-Ebene wird ein Verbot automatisierter Gesichtserkennung in öffentlichen Räumen diskutiert. Negative Presse und übergreifende Bürgerrechtskampagnen werden diese Prozesse sicherlich unterstützen, vielleicht lässt sich dadurch sogar eine anlasslose Massenüberwachung von öffentlichen Straßen und Plätzen verhindern.

Allein: Das wird auf die Ausweitung der Technologie in Strafverfolgungsbehörden nur wenig Einfluss haben. Das Bundeskriminalamt nutzt seit Jahren mehr und mehr Gesichtserkennungssoftware und hat inzwischen eine eigene Bilddatenbank von 5,8 Millionen Fotos aufgebaut. In der Fachzeitschrift für Innere Sicherheit pvt – Polizei Verkehr + Technik vom März 2019 schätzen die Anwälte Dr. Byok und Anna Horschik ein, dass der Prozess der Akzeptanz von Gesichtserkennungssoftware zur Prävention und Ermittlung von Strafverfolgungsbehörden derzeit gesellschaftspolitischen Einflussfaktoren ausgesetzt ist. Sie nennen die Proteste gegen die Novellierungen der verschiedenen Landespolizeigesetze als Beispiele für Faktoren, die diesen Prozess aufhalten. Gleichwohl sei der Prozess langfristig nicht aufzuhalten. Ihnen zufolge werde die softwarebasierte Gesichtserkennung ein Standardinstrument werden, ähnlich wie das Fingerabdruckverfahren.

Der Versuch des Hamburger Datenschutzbeauftragten, den Einsatz massenhafter Bildanalyse im Rahmen der G20-Verfahren zu stoppen, scheiterte Ende 2019 vor einem Hamburger Verwaltungsgericht. Anlasslose Massenüberwachung von Bahnhöfen und das Massenüberwachen von Demonstrationen sind zwar für eine Demokratie gleichermaßen unvereinbar, aber für die heutige bundesdeutsche Demokratie ist es anscheinend ganz einfach: Wer auf eine Demo, zu einem Fußballspiel oder auf eine Massenveranstaltung geht, wird nicht anlasslos, sondern ermittlungstechnisch aus einem Anlass überwacht. Die Unschuldsvermutung wird damit aufgegeben, das politische Engagement steht unter Generalverdacht.

Susanne Lang

schreibt in ak über Digitales.