Zum Inhalt springen Zur Navigation springen
ClearView: Per Gesichtserkennungs-App nach Dystopia

ClearView: Per Gesichtserkennungs-App nach Dystopia

Von der breiten Öffentlichkeit weitgehend unbemerkt, hat das US-Start-up ClearView die bisher größte bekannte Fotodatenbank aufgebaut und bietet diese in Form einer App potentiellen Kunden an. Die meisten davon sind wohl Strafverfolgungsbehörden – aber auch private Unternehmen befinden sich darunter. Beschreiten wir jetzt den Weg in eine dystopische Zukunft?

Diskussion um Gesichtserkennung ist nicht neu

Dass von Gesichtserkennungssoftware Gefahren ausgehen können, ist keine überraschende Erkenntnis. Dass man z.B. Opfer von falschen Verdächtigungen werden kann, ist (zumindest in Deutschland) nicht überwiegend wahrscheinlich. Es ist aber gut möglich. Momentan werden solche vergleichbaren Systeme in Deutschland nur testweise eingesetzt, wie z.B. am Berliner Südkreuz (wir berichteten mehrfach). Auch die Datenbanken beinhalteten bisher nur abgegrenzte Datenbestände von polizeilich bekannten Personen. Doch was nicht ist, kann noch werden. Die technischen Möglichkeiten wurden zumindest dahingehend noch nicht ausgeschöpft. Und die Ausweitung solcher Systeme ist auch in Deutschland schon längst angedacht.

Größte bisherige Datenbank kann Privatsphäre gefährden

Nach Recherchen der New York Times ist jetzt ein Unternehmen auf den Plan getreten, welches nach Ansicht der Zeitung die Privatsphäre, wie wir sie kennen, beenden könnte. Das Start-up namens ClearView AI agierte bisher im Verborgenen und ist erst im Laufe der Recherche der Zeitung in die Öffentlichkeit getreten. ClearView verfügt dem Bericht zufolge über eine Datenbank von mehr als drei Milliarden Fotos aus öffentlich zugänglichen Quellen, vor allem aus den gängigen sozialen Netzwerken wie Facebook, YouTube und Instagram.

Diese Datenbank verkauft ClearView in Form einer App an seine Kunden, nach eigener Aussage vorwiegend Strafverfolgungsbehörden. 600 Behörden sollen demnach schon die Dienste des Unternehmens nutzen. Eine genaue Liste der Kunden stellt ClearView nicht zur Verfügung. Es ist aber davon auszugehen, dass diese sich vornehmlich im Nordamerikanischen Raum befinden. Laut des Berichts der New York Times befinden sich unter den Kunden jedoch auch private Sicherheitsunternehmen.

Die umfassende Datenbank aus öffentlichen Quellen bedeutet letzten Endes, dass Sie noch nicht mal vor die Tür gehen müssen, um durch Kameraerfassung „Opfer“ eines solchen Eingriffs in Ihre Privatsphäre zu werden. Durch einen denkbaren Abgleich eines Fotos mit der ClearView-Datenbank, könnte durch eine fehlerhafte Zuordnung zu Ihren persönlichen Social-Media-Fotos bzw. Profilen die Polizei auch einfach an Ihrer Tür klingeln. Dass die aktuell eingesetzten Techniken eine gewisse Fehleranfälligkeit aufweisen, ist vielfach beschrieben worden.

Thema auch auf der aktuellen DLD-Konferenz in München

Die Fehleranfälligkeit und die Gefahr, die von Gesichtserkennungssystemen ausgehen kann, wird auch von der Informatikerin und Digitalaktivistin Joy Boulamwini auf der momentan stattfindenden Digital Life Design (DLD) in München dargestellt. Ihre Untersuchungen zeigen z.B. auf, dass vor allem Frauen mit dunkler Hautfarbe auffallend häufig einer fehlerhaften Zuordnung unterliegen. Auch stellt sie dar, dass dadurch Vorgehensweisen wie Racial Profiling begünstigt werden. Letzten Endes müsse sich eine Gesellschaft die Frage stellen, in welchem Rahmen beziehungsweise ob sie gewisse Technologien überhaupt eingesetzt wissen will.

Aber es hilft doch auch!

Ja, dass mit Hilfe von Gesichtserkennung auch schon Kriminelle überführt wurden, kann man nicht abstreiten. Zumindest berichten auch einige der US-Behörden, welche die ClearView-Dienste nutzen, von schnellen Ermittlungserfolgen.

Doch sei hier die Frage von Frau Boulamwini aufgegriffen:

„Wollen wir als Gesellschaft eine solche Technologie? Und wenn ja, in welcher Form?“

Grüße aus Dystopia

Denn spinnen wir den Gedanken an einen ausufernden, unkontrollierten Einsatz einer solchen Technologie ruhig ein bisschen weiter. Missbrauchsmöglichkeiten gibt es viele, vor allem Bevormundung seitens der einsetzenden Behörden und Sicherheitsunternehmen. Doch ein Beispiel sei hier etwas näher betrachtet. Der Gründer von ClearView Hoan Ton-That gibt an, dass ClearView jetzt schon technisch in der Lage sei, über eine Augmented-Reality-Brille Daten von in der Öffentlichkeit durch diese Brille beobachteten Personen in Echtzeit anzeigen zu lassen. So würden theoretisch durch einen Blick mindestens alle öffentlich zugänglichen Daten über eine Person dem Nutzer der Brille offenbar. Durch Verknüpfungen von Daten, können so bekanntermaßen umfassende Profile von völlig fremden Menschen erstellt werden. Zwar sei nicht geplant diese Brille in den Verkauf zu bringen, doch tut es ClearView nicht, wird es womöglich ein heute noch nicht existierendes Unternehmen tun. Denn nur zur Information: Die Technologie zur Gesichtserkennung ist nicht neu. Dystopische Zukunftsvisionen hat sie schon immer ausgelöst. So mag es aber doch ein wenig überraschen, dass es gerade Datensammel-Primus Google war, welcher bereits 2011 große Bedenken an einer Weiterentwicklung besagter Technologie deutlich machte. Und zwar aus Angst, dass die Technologie für unlautere Zwecke missbraucht werden könnte. Hier wurde die Frage also noch gestellt. Wollen wir das? Die Antwort war nein.

Und dann kam ClearView.

Die Lösung kann nur ein gesellschaftlicher Diskurs sein. Technologischer Fortschritt kann der Gesellschaft von großem Nutzen sein. Doch das ist er nur, wenn man sich die Gefahren bewusstmacht, den Fortschritt nach den Vorstellungen der Menschen gestaltet und Missbrauch möglichst den Raum nimmt. Es liegt letzten Endes an uns allen.

Informieren Sie sich über unsere praxisnahen Webinare
  • »Microsoft 365 sicher gestalten«
  • »Informationspflichten nach DSGVO«
  • »Auftragsverarbeitung in der Praxis«
  • »DSGVO-konformes Löschen«
  • »IT-Notfall Ransomware«
  • »Bewerber- und Beschäftigtendatenschutz«
Webinare entdecken
Mit dem Code „Webinar2024B“ erhalten Sie 10% Rabatt, gültig bis zum 30.06.2024.
Beitrag kommentieren
Fehler entdeckt oder Themenvorschlag? Kontaktieren Sie uns anonym hier.
  • Das ist schon wirklich erschreckend.

    Und selbst die Frage, ob hier ein Verstoß gegen die DSGVO vorliegt, lässt sich so eindeutig nicht beantworten, weil eine Aggregation von öffentlich zugänglichen Daten zu einer Person ja noch nicht per se eine Profilbildung darstellt – mein Verständnis der DSGVO-Definition von „Profilbildung“ ist, dass die – im Unterschied zur bloßen Aggregation von Daten – zumindest eine bewertende Komponente enthält. Das wäre ja im Fall einer hypothetischen AR-Brille, die zu jeder erkannten Person deren öffentlich zugänglichen Informationen (wie Name, Beruf etc.) einblendet, nicht gegeben.

Die von Ihnen verfassten Kommentare erscheinen nicht sofort, sondern erst nach Prüfung und Freigabe durch unseren Administrator. Bitte beachten Sie auch unsere Nutzungsbedingungen und unsere Datenschutzerklärung.