Wie weiß das Internet, dass du wirklich DU bist? Worldcoin: Sicherheitsprobleme bei der Personenüberprüfung

von | 2. Dez 2023

Im vorletzten Teil unserer Serie fokussieren wir uns auf einen weiteren Abschnitt des kritischen Papiers von Vitalik Buterin, dem Gründer von Ethereum. In dieser Passage thematisiert er die allgemeinen Sicherheitsprobleme bei der Personenüberprüfung im Zusammenhang mit Worldcoin.

… Fortsetzung:

Sicherheitsprobleme bei der Personenüberprüfung im Allgemeinen

Neben den spezifischen Problemen von Worldcoin gibt es Bedenken, die alle Konzepte zur Personenüberprüfung betreffen. Die wesentlichen, die mir einfallen, sind:

  1. 3D-gedruckte falsche Menschen: Man könnte KI verwenden, um Fotos oder sogar 3D-Drucke von falschen Menschen zu erstellen, die überzeugend genug sind, um von der Orb-Software akzeptiert zu werden. Wenn auch nur eine Gruppe dies tut, kann sie eine unbegrenzte Anzahl von Identitäten generieren.
  2. Möglichkeit des Verkaufs von IDs: Jemand könnte den öffentlichen Schlüssel einer anderen Person anstelle des eigenen bei der Registrierung angeben, wodurch diese Person die Kontrolle über die registrierte ID erhält, im Austausch für Geld. Dies scheint bereits zu geschehen. (Vgl. X) Zusätzlich zum Verkauf gibt es auch die Möglichkeit, IDs für kurze Zeit in einer Anwendung zu mieten.
  3. Handy-Hacking: Wenn das Handy einer Person gehackt wird, kann der Hacker den Schlüssel stehlen, der ihre World-ID steuert.
  4. Staatliche Zwangsübernahme von IDs: Eine Regierung könnte ihre Bürger dazu zwingen, sich zu verifizieren, während sie einen QR-Code der Regierung zeigen. Auf diese Weise könnte eine bösartige Regierung Zugang zu Millionen von IDs erhalten. In einem biometrischen System könnte dies sogar heimlich geschehen: Regierungen könnten getarnte Orbs verwenden, um World-IDs von allen Personen zu extrahieren, die ihr Land an der Passkontrolle betreten.

Punkt 1 ist spezifisch für biometrische Systeme zur Personenüberprüfung. Die Punkte 2 und 3 gelten sowohl für biometrische als auch für nicht-biometrische Designs gemeinsam. Punkt 4 ist ebenfalls für beide Designs relevant, obwohl die erforderlichen Techniken in beiden Fällen ganz unterschiedlich wären; in diesem Abschnitt werde ich mich auf die Probleme im biometrischen Fall konzentrieren.

Dies sind ziemlich ernste Schwächen. Einige wurden bereits in bestehenden Protokollen behandelt, andere können mit zukünftigen Verbesserungen adressiert werden und wieder andere scheinen fundamentale Einschränkungen zu sein.

Wie gehen wir mit gefälschten Personen um?

Dies ist für Worldcoin ein deutlich geringeres Risiko als für Systeme wie Proof of Humanity: Ein persönlicher Scan kann viele Merkmale einer Person überprüfen und ist im Vergleich zur einfachen Manipulation (vgl. The Guardian) eines Videos (vgl. X) ziemlich schwer zu fälschen. Spezialisierte Hardware ist von Natur aus schwerer zu täuschen als handelsübliche Hardware, die wiederum schwerer zu täuschen ist als digitale Algorithmen, die Bilder und Videos überprüfen, die aus der Ferne gesendet werden.

Könnte jemand irgendwann etwas 3D-drucken, das sogar spezialisierte Hardware täuschen kann? Wahrscheinlich. Ich erwarte, dass es irgendwann wachsende Spannungen zwischen dem Ziel geben wird, den Mechanismus offen und sicher zu halten: Open-Source-KI-Algorithmen [Algorithmen für künstliche Intelligenz, deren Quellcode öffentlich einsehbar ist] sind von Natur aus anfälliger für maschinelles Lernen, das auf Störungen abzielt [Lerntechniken für Maschinen, die darauf abzielen, andere Modelle durch gezielte Eingabedaten zu stören oder zu täuschen]. (Vgl. Wikipedia) Black-Box-Algorithmen [Algorithmen, deren interne Arbeitsweise nicht einsehbar ist] sind besser geschützt, aber es ist schwer zu sagen, ob ein Black-Box-Algorithmus nicht so programmiert wurde, dass er Hintertüren enthält.

Vielleicht könnten ZK-ML-Technologien [Technologien, die Zero-Knowledge-Beweise mit maschinellem Lernen kombinieren, um sowohl Transparenz als auch Sicherheit zu gewährleisten] uns das Beste aus beiden Welten bieten. (Vgl. YouTube) Obwohl es in einer noch weiter entfernten Zukunft wahrscheinlich ist, dass selbst die besten KI-Algorithmen von den besten 3D-gedruckten falschen Personen getäuscht werden.

Allerdings scheint es aus meinen Gesprächen sowohl mit den Worldcoin- als auch mit den Proof-of-Humanity-Teams, dass zum jetzigen Zeitpunkt noch keines der Protokolle signifikante Deepfake-Angriffe erlebt, aus dem einfachen Grund, dass es ziemlich billig und einfach ist, echte Niedriglohnarbeiter einzustellen, die sich in deinem Namen anmelden.

Kann der Verkauf von IDs verhindert werden?

Im Kurzfristigen ist es schwierig, diese Art von Outsourcing zu verhindern, denn die meisten Menschen auf der Welt kennen Proof-of-Personhood-Protokolle [Protokolle, die die Einzigartigkeit einer Person nachweisen sollen] noch nicht. Wenn man ihnen sagt, sie sollen einen QR-Code hochhalten und ihre Augen für 30 Dollar scannen lassen, werden sie das tun. Sobald mehr Menschen wissen, was Proof-of-Personhood-Protokolle sind, wird eine recht einfache Abhilfemaßnahme möglich: Personen, die bereits eine registrierte ID haben, können sich erneut registrieren und die vorherige ID damit ungültig machen. Das macht den „ID-Verkauf“ weit weniger glaubwürdig, da jemand, der seine ID verkauft, einfach hingehen und sich erneut registrieren kann, wodurch die gerade verkaufte ID ungültig wird. Um jedoch an diesen Punkt zu gelangen, muss das Protokoll sehr bekannt sein und Orbs müssen weitgehend zugänglich sein, um eine Registrierung auf Abruf praktikabel zu machen.

Das ist einer der Gründe, warum es wertvoll ist, eine UBI-Münze [Universal Basic Income, dt. universelles Grundeinkommen] in ein Proof-of-Personhood-System zu integrieren: Ein UBI-Coin bietet einen leicht verständlichen Anreiz für Menschen, (1) das Protokoll kennenzulernen und sich anzumelden und (2) sich sofort erneut zu registrieren, falls sie sich im Auftrag von jemand anderem registrieren. Eine erneute Registrierung verhindert auch Handy-Hacking.

Kann Zwang in biometrischen Proof-of-Personhood-Systemen verhindert werden?

Das hängt davon ab, um welche Art von Zwang es sich handelt. Mögliche Formen von Zwang könnten sein:

  • Regierungen, die die Augen (oder Gesichter usw.) der Menschen an Grenzkontrollen und anderen regulären Regierungskontrollpunkten scannen und dies nutzen, um ihre Bürger zu registrieren (und häufig neu zu registrieren).
  • Regierungen, die Orbs im Land verbieten, um zu verhindern, dass Menschen sich unabhängig neu registrieren können.
  • Einzelpersonen, die IDs kaufen und dann drohen, dem Verkäufer zu schaden, wenn sie feststellen, dass die ID aufgrund einer erneuten Registrierung ungültig geworden ist.
  • (Möglicherweise von der Regierung betriebene) Anwendungen, die von Menschen verlangen, sich anzumelden, indem sie direkt mit ihrem öffentlichen Schlüssel signieren. Dadurch können sie den entsprechenden biometrischen Scan sehen und somit die Verbindung zwischen der aktuellen ID des Benutzers und allen zukünftigen IDs, die sie durch erneute Registrierung erhalten, herstellen. Eine gängige Befürchtung ist, dass dies es zu einfach macht, „permanente Aufzeichnungen“ zu erstellen, die ein Leben lang bei einer Person bleiben.

Alle deine UBI und Abstimmungskraft gehören uns. Bildquelle: Insider

Insbesondere in den Händen unerfahrener Nutzer scheint es recht schwierig zu sein, diese Situationen komplett zu verhindern. Nutzer könnten ihr Land verlassen, um sich in einem sichereren Land bei einem Orb (neu) zu registrieren, aber das ist ein schwieriger und kostspieliger Prozess. In einer wirklich feindlichen rechtlichen Umgebung erscheint die Suche nach einem unabhängigen Orb zu schwierig und riskant.

Was machbar ist, ist, diese Art von Missbrauch lästiger in der Umsetzung und erkennbarer zu machen. Der Ansatz von Proof of Humanity, bei der Registrierung eine spezifische Phrase sprechen zu müssen, ist ein gutes Beispiel: Es könnte ausreichen, um verstecktes Scannen zu verhindern, erfordert, dass die Nötigung viel offensichtlicher ist, und der Registrierungssatz könnte sogar eine Erklärung enthalten, die bestätigt, dass der Befragte weiß, dass er das Recht hat, sich unabhängig neu zu registrieren und eventuell UBI-Coins oder andere Belohnungen erhalten kann. Wird Nötigung erkannt, könnten die Geräte, die zur erzwungenen Massenregistrierung verwendet wurden, ihre Zugriffsrechte verlieren. Um zu verhindern, dass Anwendungen die aktuellen und früheren IDs der Menschen verlinken und versuchen, „dauerhafte Aufzeichnungen“ zu hinterlassen, könnte die Standard-App für den Nachweis der Person die Schlüssel des Benutzers in vertrauenswürdiger Hardware sperren, wodurch jede Anwendung daran gehindert wird, den Schlüssel direkt ohne die anonymisierende ZK-SNARK-Schicht [ZK-SNARK steht für „Zero-Knowledge Succinct Non-Interactive Argument of Knowledge“, und ist eine Form von kryptographischen Beweisen, die es ermöglicht, dass eine Partei der anderen Partei beweisen kann, dass eine bestimmte Aussage wahr ist, ohne weitere Informationen preiszugeben] dazwischen zu verwenden. Wenn eine Regierung oder ein Anwendungsentwickler dies umgehen möchte, müssten sie die Verwendung ihrer eigenen benutzerdefinierten App vorschreiben.

Mit einer Kombination dieser Techniken und aktiver Wachsamkeit scheint es möglich zu sein, die wirklich feindlichen Regime auszusperren und diejenigen Regime ehrlich zu halten, die lediglich mittelschlecht sind (wie es in weiten Teilen der Welt der Fall ist). Dies kann entweder von einem Projekt wie Worldcoin oder Proof of Humanity erfolgen, das seine eigene Bürokratie für diese Aufgabe aufrechterhält, oder indem mehr Informationen darüber preisgegeben werden, wie eine ID registriert wurde (z. B. bei Worldcoin, von welchem Orb sie stammt), und diese Einstufungsaufgabe der Community überlassen wird.

Kann man das Vermieten von IDs verhindern (z.B. zum Verkauf von Stimmen)?

Das Vermieten deiner ID wird durch eine Neuregistrierung nicht verhindert. In einigen Anwendungen ist das in Ordnung: Die Kosten für das Vermieten deines Rechts, den Tagesanteil an UBI-Coins zu sammeln, entsprechen einfach dem Wert des Tagesanteils an UBI-Coins. In Anwendungen wie dem Abstimmen ist jedoch der einfache Verkauf von Stimmen ein großes Problem.

Systeme wie MACI [Minimum Anti-Collusion Infrastructure, eine Infrastruktur zur Minimierung von Absprachen] können dich daran hindern, deine Stimme glaubwürdig zu verkaufen, indem sie es dir ermöglichen, später eine weitere Stimme abzugeben, die deine vorherige Stimme ungültig macht, und zwar so, dass niemand feststellen kann, ob du tatsächlich eine solche Stimme abgegeben hast oder nicht. (Vgl. Github) Wenn jedoch der Bestechende kontrolliert, welchen Schlüssel du bei der Registrierung erhältst, hilft das nicht.

Ich sehe hier zwei Lösungen:

  1. Führe gesamte Anwendungen innerhalb eines MPC [Multi-Party Computation, eine Methode, bei der mehrere Parteien gemeinsam Berechnungen durchführen können, ohne ihre Eingabedaten offenlegen zu müssen] aus. Dies würde auch den Neuregistrierungsprozess abdecken: Wenn sich eine Person beim MPC registriert, weist dieser ihr eine separate ID zu, die nicht mit ihrer ursprünglichen ID für den Personennachweis verknüpft ist. Nur der MPC würde wissen, welches Konto bei einer Neuregistrierung deaktiviert werden muss.
  2. Dezentralisierte Registrierungszeremonien. Implementiere einfach ein Protokoll für die persönliche Schlüsselregistrierung, das vier zufällig ausgewählte lokale Teilnehmer benötigt, um zusammen jemanden zu registrieren. (Vgl. Vitalik) Das könnte sicherstellen, dass die Registrierung ein „vertrauenswürdiges“ Verfahren ist, in das ein Angreifer nicht hineinschnüffeln kann.

Systeme, die auf sozialen Netzwerken basieren, könnten hier tatsächlich besser abschneiden, da sie automatisch lokale dezentralisierte Registrierungsprozesse als Nebenprodukt ihrer Funktionsweise erzeugen können.

Quelle: vitalik.eth.limo

Fortsetzung folgt …


Alle Artikel der Reihe „Wie weiß das Internet, dass du wirklich DU bist?“ findest du hier.

Sichere deine digitale Zukunft mit dem PRVCY Transform Kurs inklusive Smartphone!

Du bist dir über die Risiken im digitalen Raum bewusst und suchst nach einer All-in-One-Lösung für ultimative Sicherheit und Privatsphäre? Dann ist der PRVCY Transform Kurs genau das Richtige für dich.

Dein Rundum-Sorglos-Paket inklusive PRVCY Phone bietet dir nicht nur das sicherste Android auf Erden, sondern auch modernste Technologie gepaart mit Sicherheitsfeatures, die ihresgleichen suchen.

Warum solltest du den PRVCY Transform Kurs wählen?

1️⃣ Umfassendes Lernmaterial: Mit 37 Videos in 12 Lektionsmodulen und über 12 Stunden Laufzeit wirst du zum Experten für Cyber-Sicherheit und Privatsphäre.

2️⃣ Unvergleichlicher Datenschutz: Sag „Nein“ zu Big-Tech Tracking, staatlicher Überwachung und Datenlecks zu großen Technologieunternehmen.

3️⃣ Volle Freiheit: Erlebe ein Leben ohne Zensur, lästige Werbung und aufgezwungene System-Updates.

4️⃣ Maximale Kontrolle: Behalte die Kontrolle über Kamera, Mikrofon und all deine Kommunikation.

5️⃣ Zukunftssicherheit: Treffe heute die Entscheidungen, die deine digitale Identität von morgen prägen.

6️⃣ Exklusiver Bonus: Ein PRVCY Mobiltelefon ist im Paket enthalten.

Empfohlen von Edward Snowden!

Warte nicht länger! Deine Privatsphäre und Sicherheit sind unbezahlbar. Ergreife jetzt die Initiative und buche den PRVCY Transform Kurs, um die Kontrolle über deine digitale Zukunft zu übernehmen.

Telegram Logo „Bye Bye Staat & Hallo Freiheit“
Abonniere jetzt LegitimCrypto auf Telegram!

Social Media

Legitim-Newsletter

 

Abonniere den Newsletter,


um die wichtigsten Updates per E-Mail zu erhalten!

Du hast dich erfolgreich angemeldet - danke!