Sam Altman’s Iris-Scanner World: Ist das legal? Bayern entscheidet
Spreche ich mit einem Menschen, oder ist das eine Maschine? Mit Iris-Scannern will Sam Altman in einer Zeit der Internet-Fakes Klarheit schaffen. Dabei ist noch nicht sicher, ob das, was er tut, überhaupt rechtmässig ist.
Vor ein paar Wochen hat ein Video für Aufruhr gesorgt. Es zeigt Kamala Harris, wie sie eine Rede hält und in einem Nebensatz beiläufig auf einen Mordanschlag auf Donald Trump hinweist.
Nur: Kamala Harris hat das gar nie gesagt. Ihre Stimme im Video ist mit künstlicher Intelligenz generiert. Von einer russischen Desinformationsgruppe, die Einfluss auf den laufenden US-Wahlkampf nehmen wollte. Das Video ist ein Fake.
Und es ist kein Einzelfall. In Zeiten von KI verfliessen zunehmend die Grenzen zwischen dem, was wir als menschlich zu erkennen glauben, und dem, was maschinengemacht ist. Das ist gefährlich, kann von Kriminellen oder autoritären Regierungen missbraucht werden.
Es brauche einen «Proof of Personhood», einen Beweis für das Menschsein, folgert Sam Altman daraus. Ausgerechnet er, der Open AI mitgegründet und mit Chat-GPT den Aufstieg der KI vorangetrieben hat, will eine Lösung für das Problem der Deepfakes gefunden haben.
Eine gewisse Ironie hat das Ganze. Und auch die Methode, mit der Altman diesen Beweis erbringen will, ist höchst umstritten.
Beweis des Menschseins
Vor fünf Jahren hat Sam Altman mit dem Harvard-Abgänger Max Novendstern und dem deutschen Physiker Alexander Blania ein Unternehmen gegründet, das die Iris von Personen scannt. Fussballgrosse Geräte erstellen Bilder von Augen, wandeln sie in Codes um und speichern sie in der Blockchain. Dadurch erhalten die gescannten Personen eine digitale Identität, mit der sie sich im digitalen Raum weltweit als Menschen verifizieren können.
Als Worldcoin ist das Projekt 2019 gestartet, hat in den Folgejahren 250 Millionen Dollar von Investoren eingesammelt und verzeichnet heute über sieben Millionen gescannte Menschen.
Mitte Oktober benannten die Gründer das Projekt dann in World um. Sam Altman und Alexander Blania teilten an einer Präsentation mit: Das Ziel sei, auf der Basis menschlicher Identität ein Netzwerk echter Menschen zu schaffen und möglichst die ganze Welt zu registrieren.
Dafür muss das Projekt wachsen. Mit jedem gescannten Auge wird das Netzwerk dichter, das Datenvolumen grösser. Es brauche tausendmal so viele Geräte, hiess es an der Präsentation.
Das Vorhaben könnte an einer grundlegenden Frage scheitern, die derzeit geprüft wird: Ist das, was World tut, überhaupt legal?
Das untersucht derzeit das Bayerische Landesamt für Datenschutzaufsicht. Es ist innerhalb der EU für das World-Projekt zuständig, das zum Unternehmen Tools for Humanity gehört. Dieses hat einen seiner Hauptsitze in Deutschland – im bayrischen Erlangen.
This week, what started as Worldcoin became World.
We hope this will be a real human network providing identity, financial infrastructure and community to everyone.
We also released many new things. pic.twitter.com/DgN2sTsQdh
— Alex Blania (@alexblania) October 21, 2024
Umgang mit besonders heiklen Daten
Auf Anfrage teilt das Bayerische Landesamt für Datenschutzaufsicht mit, die Prüfung von World in Teilen abgeschlossen zu haben, sich aber noch mit den europäischen Aufsichtsbehörden für Datenschutz abstimmen zu müssen. Seit über einem Jahr schon untersucht die bayrische Behörde, wie sicher World die Daten verarbeitet und schützt und ob Betroffene ihre Rechte wahrnehmen können – etwa, die erfassten Daten auch wieder zu löschen.
Man sei überzeugt, dass World konform sei mit dem Datenschutzgesetz, sagt Damien Kieran, Leiter Recht und Datenschutz bei Tools for Humanity, dem Unternehmen, zu dem World gehört. Es habe fehlerhafte Medienberichte sowie generelle Missverständnisse zum Projekt gegeben. Verschiedene Regulierungsbehörden hätten sich veranlasst gesehen, Untersuchungen einzuleiten.
World steht unter anderem in der Kritik, weil es mit seinen Iris-Scans biometrische Daten erfasst. Diese Daten gälten als besonders heikel, sagt Reto Fanger, Rechtsanwalt für Datenrecht und Dozent an der Hochschule Luzern. Zum einen deshalb, weil man daraus sensitive Gesundheitsdaten entnehmen und etwa Vorstufen von Erkrankungen erkennen könne. Zum anderen, weil biometrische Daten einzigartig seien.
Ein Irisbild ist unersetzbar
Würden solche Daten gestohlen, wäre das fatal. Ein gestohlenes Passwort kann man abändern. Ein gestohlenes Irisbild lässt sich nicht ersetzen. Genau deshalb unterliegen biometrische Daten einer besonderen Sorgfaltspflicht.
World schreibt dazu auf seiner Website, die Bilder der Iris würden den Orb, das scannende Gerät, nicht verlassen. Sie würden verschlüsselt als Code dezentral gespeichert und danach vom Gerät gelöscht. Auf dem Telefon der gescannten Person seien sie verschlüsselt gespeichert, damit diese sie jederzeit verwalten könne.
In einem Interview mit dem «Handelsblatt» im Juli 2023 sagte der Mitgründer und CEO Alexander Blania, man verarbeite die Daten nur lokal auf dem Gerät, die Nutzenden könnten komplett anonym bleiben. «Wir wollen ihre Daten nicht haben.»
Auf den ersten Blick klingt das sicher. Auf den zweiten wirft es Fragen auf. Was passiert zum Beispiel, wenn der Augen scannende Orb gehackt wird, während sich die Bilder noch auf dem Gerät befinden? Oder das Handy, auf dem der Nutzer oder die Nutzerin sie abrufen kann?
Das Risiko, dass ein Orb manipuliert oder gehackt werde, sei klein, sagt Damien Kieran von Tools for Humanity. Mit dem technologischen Fortschritt stiegen aber auch die Risiken. «Wir müssen uns immer weiterentwickeln, den Orb noch sicherer machen.»
Das Vorgehen erinnert an andere Silicon-Valley-Unternehmen, die zuerst wuchsen, bevor sie sich mit den Konsequenzen ihres Handelns auseinandersetzten.
Mehr gescannte Augen bedeuten mehr Geld
In vielen Ländern sind die Aufsichtsbehörden besorgt. Spanien, Portugal oder Italien sprachen sich gegen die Dienste von World aus und verwiesen auf den bevorstehenden Entscheid der bayrischen Datenschutzbehörde. Auch Kenya hatte den Orb letztes Jahr verboten. Dies aber noch aus einem anderen Grund.
Kenyans queue at KICC in the Nairobi CBD to scan their eyeballs in return for Worldcoin cryptocurrency tokens valued at about Sh7,700. pic.twitter.com/yFkxknJenX
— Nation Africa (@NationAfrica) August 1, 2023
Wenn eine Person mit einem Orb ihre Iris scannt, bekommt sie im Gegenzug einen Betrag der dazugehörigen Kryptowährung Worldcoin gutgeschrieben. Diese soll Finanztransaktionen zwischen den Nutzenden ermöglichen und basiert auf der Blockchain-Technologie der Kryptowährung Ethereum.
Die Entlöhnung mit der Kryptowährung hatte insbesondere in Ländern mit hoher Armutsquote eine grosse Sogwirkung. In Kenya strömten die Menschen zu den Orb-Stationen, standen stundenlang an, um ihre Augen scannen zu lassen. Sie bekamen dafür Worldcoins im Wert von 7700 kenyanischen Schilling, umgerechnet etwa 50 Franken.
Das Scannen der Augen ist in vielen Ländern ein Business. Lokale «Operatoren» werden dafür bezahlt, im Land die Leute dazu zu motivieren, ihre Augen scannen zu lassen. Ähnlich wie bei Uber und seinen Fahrern sind die Operatoren nicht direkt bei World angestellt, sondern als selbständige Dienstleister unter Vertrag. Sie bekommen eine Kommission für jede Person, die den Orb aufsucht.
Mehr gescannte Augen bedeuten mehr Geld.
Vorwurf des «Datenkolonialismus»
Dieses Geschäftsmodell birgt Missbrauchsgefahr. Laut einer Recherche des Magazins «MIT Technology Review» vom April 2022 sind Menschen in Dörfern in Indonesien oder dem Sudan mit der Verlosung von Airpods dafür angeworben worden, ihre Augen scannen zu lassen. In Santiago de Chile seien die Instruktionen zu den Datenschutzbestimmungen nur auf Englisch angezeigt gewesen, was die meisten nicht verstanden hätten.
Die Vorwürfe wiegen schwer. Im Magazin «MIT Technology Review» war von «Datenkolonialismus» die Rede.
Auf die Kritik des «MIT Technology Review» veröffentlichte World eine 25-seitige Gegendarstellung. Man habe in der Testphase mit verschiedenen Anreizmodellen experimentiert und behaupte nicht, bei jedem Schritt alles richtig gemacht zu haben. Man wolle klarstellen, dass Worldcoin kein Datenunternehmen sei und sein Geschäftsmodell nicht auf der Ausbeutung oder dem Verkauf persönlicher Nutzerdaten beruhe.
Ethisch fragwürdig
Kenya hat die Prüfung von World inzwischen in Teilen abgeschlossen und das Projekt teilweise gutgeheissen. Anfang dieses Jahres hat die kenyanische Direktion für Kriminalpolizei ihre strafrechtliche Ermittlung eingestellt. Der finale Entscheid ist aber noch hängig. «Wir arbeiten weiterhin mit der Regierung zusammen, um sicherzustellen, dass wir unsere Dienste wieder aufnehmen können», sagt Damien Kieran von Tools for Humanity, dem Unternehmen hinter World.
Das Akquisevorgehen bleibt umstritten. Reto Fanger sagt dazu: «Es ist fragwürdig, weil man Leute motiviert, die das aus freien Stücken vielleicht nicht gemacht hätten.» Laut dem Schweizer Recht etwa sei es nicht widerrechtlich, Personen für das Scannen ihrer Augen zu bezahlen. «Aber es ist ethisch fragwürdig – vor allem in Ländern, deren Bevölkerung arm ist und ökonomisch auf die Entlöhnung angewiesen.»
Ob World seine Ziele zumindest in Europa weiterhin verfolgen kann, wird sich bald zeigen. Die bayrische Datenschutzbehörde, die für den europäischen Hauptsitz von World zuständig ist, teilt auf Anfrage mit: «Wir gehen davon aus, dass uns ein Abschluss des Verfahrens noch vor Ende des Jahres 2024 möglich sein sollte.»
Dann sollte klarer sein, was für Sam Altman und sein World-Projekt möglich ist – und was Utopie bleiben wird.