Dieser Abschnitt von Vitalik Buterins Papier über Worldcoin beschäftigt sich mit der Problematik, die entsteht, da es sich bei den Orbs, den Iris-Scannern, um echte Geräte handelt. Möchtest du das Papier von Anfang an lesen, so findest du den Link zur ganzen Reihe weiter unten.
… Fortsetzung:
Welche Zugänglichkeitsprobleme gibt es bei biometrischen Identitätsnachweissystemen?
Spezialisierte Hardware führt zu Zugänglichkeitsproblemen, weil sie eben nicht sehr zugänglich ist. Irgendwo zwischen 51 % (vgl. Ecofin Agency) und 64 % (vgl. Ecofin Agency) der Menschen in der Subsahara haben heutzutage Smartphones, und diese Zahl soll bis 2030 auf 87 % ansteigen. (Vgl. Business Insider) Während es Milliarden von Smartphones gibt, gibt es nur einige hundert Orbs. Selbst mit einer deutlich größeren verteilten Produktion wäre es schwierig, eine Welt zu erreichen, in der sich ein Orb innerhalb von fünf Kilometern von jedem befindet.
Aber man muss dem Team zugutehalten, dass sie es versucht haben! (Vgl. X)
Es ist auch erwähnenswert, dass viele andere Formen von Identitätsnachweisen sogar noch schlechter in Bezug auf die Zugänglichkeit sind. Es ist sehr schwierig, einem auf sozialen Graphen basierenden Identitätsnachweissystem beizutreten, wenn man nicht bereits jemanden kennt, der im sozialen Graphen ist. Das macht es sehr einfach für solche Systeme, auf eine einzelne Gemeinschaft in einem einzigen Land beschränkt zu bleiben.
Selbst zentralisierte Identitätssysteme haben diese Lektion gelernt: Indiens Aadhaar-ID-System (vgl. Wikipedia) basiert auf Biometrie, da dies der einzige Weg war, seine massive Bevölkerung (vgl. UN) schnell einzubinden, während gleichzeitig massiver Betrug durch doppelte und gefälschte Konten vermieden wurde (was zu enormen Kosteneinsparungen (vgl. Regierung Indien) führte), obwohl das Aadhaar-System insgesamt natürlich weit weniger datenschutzfreundlich ist als alles, was in der Krypto-Community in großem Maßstab vorgeschlagen wird.
Die aus Zugänglichkeitssicht am besten abschneidenden Systeme sind tatsächlich solche wie „Proof of Humanity“, für die man sich nur mit einem Smartphone anmelden kann – obwohl, wie wir gesehen haben und sehen werden, solche Systeme auch mit allerlei anderen Kompromissen einhergehen.
Welche Zentralisierungsprobleme gibt es bei biometrischen Identitätsnachweissystemen?
Es gibt drei:
- Zentralisierungsrisiken in der obersten Governance des Systems (besonders im System, das endgültige oberste Entscheidungen trifft, wenn verschiedene Akteure im System bei subjektiven Beurteilungen unterschiedlicher Meinung sind).
- Zentralisierungsrisiken, die einzigartig für Systeme mit spezialisierter Hardware sind.
- Zentralisierungsrisiken, wenn proprietäre Algorithmen verwendet werden, um festzustellen, wer ein authentischer Teilnehmer ist.
Jedes Identitätsnachweissystem muss sich mit (1) auseinandersetzen, vielleicht mit Ausnahme von Systemen, bei denen der Satz an „akzeptierten“ IDs vollständig subjektiv ist. Wenn ein System Anreize in externen Vermögenswerten (z.B. ETH, USDC, DAI) verwendet, kann es nicht vollständig subjektiv sein, und daher werden Governance-Risiken unvermeidlich.
(2) ist ein viel größeres Risiko für Worldcoin als für Proof of Humanity (oder BrightID), da Worldcoin auf spezialisierter Hardware angewiesen ist und andere Systeme nicht.
(3) ist ein Risiko insbesondere in „logisch zentralisierten“ Systemen (vgl. Medium), in denen es ein einziges System für die Verifizierung gibt, es sei denn, alle Algorithmen sind Open-Source und wir haben die Gewissheit, dass sie tatsächlich den Code ausführen, den sie behaupten zu verwenden. Für Systeme, die rein darauf basieren, dass Benutzer andere Benutzer überprüfen (wie Proof of Humanity), besteht dieses Risiko nicht.
Wie geht Worldcoin mit Problemen der Hardware-Zentralisierung um?
Aktuell ist eine mit Worldcoin verbundene Organisation namens „Tools for Humanity“ die einzige Organisation, die Orbs herstellt. (Vgl. Tools of Humanity) Der Quellcode des Orbs ist jedoch größtenteils öffentlich: (vgl. Worldcoin) Die Hardware-Spezifikationen können in diesem GitHub-Repository [Online-Plattform zur Code-Verwaltung] eingesehen werden (vgl. Github), und weitere Teile des Quellcodes sollen bald veröffentlicht werden. Die Lizenz gehört zu denen, die „gemeinsam genutzt, aber technisch erst in vier Jahren Open-Source“ sind, ähnlich wie die Uniswap BSL [Business Source License von Uniswap. Die Business Source License (BSL) von Uniswap ist eine modifizierte Open-Source-Lizenz, die den Quellcode öffentlich zugänglich macht, jedoch kommerzielle Nutzung für einen festgelegten Zeitraum einschränkt.] (vgl. Github), mit dem Zusatz, dass sie auch das, was sie als unethisches Verhalten betrachten, verhindert – sie listen explizit Massenüberwachung und drei (vgl. UN) internationale Menschenrechtserklärungen auf. (Vgl. UN, International Labour Organization)
Das erklärte Ziel des Teams ist es, andere Organisationen zur Herstellung von Orbs zu ermutigen und im Laufe der Zeit von der Herstellung durch „Tools for Humanity“ zu einer Art DAO überzugehen, die genehmigt und verwaltet, welche Organisationen von dem System anerkannte Orbs herstellen können.
Es gibt zwei Möglichkeiten, wie dieses Design scheitern kann:
- Es gelingt nicht, tatsächlich zu dezentralisieren. Dies könnte passieren aufgrund der gängigen Falle von föderierten Protokollen: Ein Hersteller dominiert in der Praxis und verursacht eine Re-Zentralisierung des Systems. (Vgl. Fieldnotes) Theoretisch könnte die Governance [Leitungs- und Entscheidungsstrukturen] begrenzen, wie viele gültige Orbs jeder Hersteller produzieren kann, aber dies müsste sorgfältig verwaltet werden. Das setzt viel Druck auf die Governance, sowohl dezentralisiert zu sein als auch das Ökosystem effektiv zu überwachen und auf Bedrohungen zu reagieren: eine viel schwierigere Aufgabe als zum Beispiel eine recht statische DAO, die sich nur um oberste Streitschlichtungsaufgaben kümmert.
- Es stellt sich heraus, dass es nicht möglich ist, einen solchen verteilten Herstellungsmechanismus sicher zu gestalten. Hier sehe ich zwei Risiken:
- Anfälligkeit gegenüber schlechten Orb-Herstellern: Wenn auch nur ein Orb-Hersteller böswillig oder gehackt ist, kann er eine unbegrenzte Anzahl von gefälschten Iris-Scan-Hashes erzeugen und ihnen World IDs geben.
- Regierungsbeschränkung von Orbs: Regierungen, die nicht wollen, dass ihre Bürger am Worldcoin-Ökosystem teilnehmen, können Orbs in ihrem Land verbieten. Darüber hinaus könnten sie ihre Bürger sogar zwingen, ihre Iris scannen zu lassen, so dass die Regierung deren Konten erhält, und die Bürger hätten keine Möglichkeit zu reagieren.
Um das System widerstandsfähiger gegen schlechte Orb-Hersteller zu machen, schlägt das Worldcoin-Team vor, regelmäßige Audits der Orbs durchzuführen, um zu überprüfen, dass sie korrekt gebaut wurden und die Schlüsselhardwarekomponenten nach den Spezifikationen gebaut und nachträglich nicht manipuliert wurden. Dies ist eine herausfordernde Aufgabe: Es ist im Grunde so etwas wie die IAEA-Atominspektionsbürokratie [Internationale Atomenergie-Organisation], aber für Orbs. (Vgl. IAEA) Die Hoffnung ist, dass selbst eine sehr unvollkommene Implementierung eines Prüfregimes die Anzahl der gefälschten Orbs stark reduzieren könnte.
Um den Schaden, der durch einen schlechten Orb verursacht wird, der durchrutscht, zu begrenzen, wäre eine zweite Absicherung sinnvoll. World IDs, die bei verschiedenen Orb-Herstellern und idealerweise mit verschiedenen Orbs registriert wurden, sollten voneinander unterscheidbar sein. Es ist in Ordnung, wenn diese Informationen privat sind und nur auf dem Gerät des World-ID-Inhabers gespeichert werden; sie müssen jedoch bei Bedarf nachweisbar sein. Dies ermöglicht es dem Ökosystem, auf (unvermeidliche) Angriffe zu reagieren, indem einzelne Orb-Hersteller und vielleicht sogar einzelne Orbs nach Bedarf von der Whitelist entfernt werden. Wenn wir sehen, dass die nordkoreanische Regierung herumgeht und die Menschen zwingt, ihre Augäpfel scannen zu lassen, könnten diese Orbs und alle von ihnen produzierten Konten sofort rückwirkend deaktiviert werden.
Quelle: vitalik.eth.limo
Fortsetzung folgt …
Alle Artikel der Reihe „Wie weiß das Internet, dass du wirklich DU bist?“ findest du hier.
Sichere deine digitale Zukunft mit dem PRVCY Transform Kurs inklusive Smartphone!
Du bist dir über die Risiken im digitalen Raum bewusst und suchst nach einer All-in-One-Lösung für ultimative Sicherheit und Privatsphäre? Dann ist der PRVCY Transform Kurs genau das Richtige für dich.
Dein Rundum-Sorglos-Paket inklusive PRVCY Phone bietet dir nicht nur das sicherste Android auf Erden, sondern auch modernste Technologie gepaart mit Sicherheitsfeatures, die ihresgleichen suchen.
Warum solltest du den PRVCY Transform Kurs wählen?
1️⃣ Umfassendes Lernmaterial: Mit 37 Videos in 12 Lektionsmodulen und über 12 Stunden Laufzeit wirst du zum Experten für Cyber-Sicherheit und Privatsphäre.
2️⃣ Unvergleichlicher Datenschutz: Sag „Nein“ zu Big-Tech Tracking, staatlicher Überwachung und Datenlecks zu großen Technologieunternehmen.
3️⃣ Volle Freiheit: Erlebe ein Leben ohne Zensur, lästige Werbung und aufgezwungene System-Updates.
4️⃣ Maximale Kontrolle: Behalte die Kontrolle über Kamera, Mikrofon und all deine Kommunikation.
5️⃣ Zukunftssicherheit: Treffe heute die Entscheidungen, die deine digitale Identität von morgen prägen.
6️⃣ Exklusiver Bonus: Ein PRVCY Mobiltelefon ist im Paket enthalten.
Empfohlen von Edward Snowden!
Warte nicht länger! Deine Privatsphäre und Sicherheit sind unbezahlbar. Ergreife jetzt die Initiative und buche den PRVCY Transform Kurs, um die Kontrolle über deine digitale Zukunft zu übernehmen.
„Bye Bye Staat & Hallo Freiheit“
Abonniere jetzt LegitimCrypto auf Telegram!