Die Strafverfolgung verwendet eine Gesichtserkennungs-App mit großen Datenschutzproblemen

0
89

Möglicherweise haben Sie guten Grund zur Sorge, dass die Verwendung der Gesichtserkennung durch die Polizei Ihre Privatsphäre untergräbt. Viele Abteilungen verwenden bereits Software mit ernsthaften Datenschutzbedenken. Das New York Times hat erfahren, dass sich im vergangenen Jahr über 600 Strafverfolgungsbehörden in den USA und Kanada für die Verwendung von Software des wenig bekannten Startups Clearview AI angemeldet haben, die hochgeladene Fotos (auch solche mit unvollkommenen Winkeln) mit über drei Milliarden Bildern vergleichen kann, von denen Berichten zufolge Bilder abgekratzt wurden das Web, einschließlich Facebook und YouTube. Während es anscheinend zur Lösung einiger Fälle beigetragen hat, schafft es auch massive Datenschutzbedenken – die Polizei könnte Demonstranten einschüchtern, Menschen verfolgen und das System auf andere Weise mit wenigen Hindernissen missbrauchen.

Ein Teil des Problems ist auf mangelnde Kontrolle zurückzuführen. Die Akzeptanz der Clearview-Software wurde von der Öffentlichkeit nicht wirklich in Anspruch genommen, und die Fähigkeit des Unternehmens, Daten zu schützen, wurde in der Praxis nicht getestet. Clearview selbst blieb bis Ende 2019 streng geheim. Es ist sicherlich in der Lage, auf Suchdaten zuzugreifen, wenn es möchte – die Polizei hilft beim Testen der Software für das NYTIn der Geschichte wurde gefragt, ob sie mit den Medien gesprochen hätten.

Die Software verstößt offenbar auch explizit gegen Richtlinien bei Facebook und anderswo gegen das Sammeln von Benutzerbildern en masse. Facebook sagte, es habe die Situation untersucht und werde „geeignete Maßnahmen ergreifen“, wenn Clearview gegen seine Regeln verstoße.

Firmenchef Hoan Ton-That versuchte, einige der Datenschutzbedenken herunterzuspielen. Er merkte an, dass Überwachungskameras „zu hoch“ seien, um eine wirklich zuverlässige Gesichtserkennung zu liefern, und dass Clearview nur über die Anfragen des Reporters informiert wurde, weil ein System aufgebaut war, das „anomales Suchverhalten“ auffängt. Die Kundenbetreuer sehen sich hochgeladene Fotos nicht an, fügte das Unternehmen hinzu. Und während es einen zugrunde liegenden Code gibt, der theoretisch für Augmented-Reality-Brillen verwendet werden kann, mit denen Menschen auf der Straße identifiziert werden können, gibt es laut Ton-That keine Pläne für ein solches Design.

Weiterlesen  Der Morgen danach: Countdown bis zum nächsten Crew Dragon-Test von SpaceX

Die Software von Clearview hat dennoch Alarmglocken ausgelöst, und zwar nicht nur für die zuvor erwähnten möglichen Machtmissbräuche. Die Software ist nur zu 75 Prozent genau und wurde nicht von Außenstehenden wie dem National Institute of Standards and Technology der US-Regierung getestet. Es besteht die reale Gefahr falscher Übereinstimmungen, ganz zu schweigen von potenziellen Geschlechts- und Rassenunterschieden. So gut es auch in einigen Fällen funktioniert hat, es besteht die Möglichkeit, dass es zu falschen Anschuldigungen kommt oder überproportional auf nichtweiße Gruppen abzielt. Städte wie San Francisco haben es eilig, die Verwendung von Gesichtserkennung durch die Regierung wegen solcher Probleme zu verbieten, und Forderungen nach weiteren Verboten könnten im Zuge der neuesten Nachrichten lauter werden.

Vorheriger ArtikelMicrosoft behebt eine Internet Explorer-Sicherheitslücke bei einem aktiven Angriff
Nächster ArtikelKim Kardashians Vintage Tiger Print Kleid ist so gut, dass du mich brüllen hörst