Blockchain (Substantiv): Eine Koordinationsmaschine, die es Teilnehmern aus der ganzen Welt ermöglicht, entlang einer Reihe von gemeinsam vereinbarten Regeln zusammenzuarbeiten, ohne dass dabei eine dritte Partei beteiligt ist.
Computer sind darauf ausgelegt, drei Dinge zu tun: Daten zu speichern, zu berechnen und miteinander und mit Menschen zu kommunizieren. Blockchains fügen eine vierte Dimension hinzu: zusätzliche Garantien, dass diese drei Dinge (Speicherung, Berechnung und Kommunikation) auf vereinbarte Weise erfolgen. Diese Garantien ermöglichen eine Zusammenarbeit zwischen Fremden ohne eine vertrauenswürdige dritte Partei, die sie erleichtert (dezentralisiert).

Diese zusätzlichen Garantien können entweder wirtschaftlicher (Vertrauensspieltheorie und Anreize/Anreize) oder kryptographischer (Vertrauensmathematik) Natur sein, aber die meisten Anwendungen nutzen eine Kombination aus beiden - kryptowirtschaftlich. Dies steht im starken Kontrast zum aktuellen Status quo weitgehend reputationsbasierter Systeme.
Während Web3 oft als „lesen, schreiben, besitzen“ beschrieben wird, glauben wir, dass eine bessere Vorstellung für die dritte Iteration des Internets „lesen, schreiben, überprüfen“ ist, da der Hauptvorteil öffentlicher Blockchains ist garantierte Berechnungund einfache Überprüfung, dass diese Garantien eingehalten wurden. Eigentum kann eine Teilmenge der garantierten Berechnung sein, wenn wir digitale Artefakte erstellen, die gekauft, verkauft und kontrolliert werden können. Viele Anwendungsfälle von Blockchains profitieren jedoch von garantierten Berechnungen, die jedoch nicht direkt das Eigentum betreffen. Wenn zum Beispiel Ihre Gesundheit in einem vollständig On-Chain-Spiel 77/100 beträgt - gehört Ihnen diese Gesundheit oder wird sie nur nach allgemein vereinbarten Regeln durchsetzbar On-Chain? Wir würden letzteres argumentieren, aber Chris Dixonkönnte anderer Meinung sein.
Web3 = Lesen, Schreiben, Überprüfen
Blockchains bieten viele spannende Möglichkeiten, aber das dezentrale Modell bringt auch zusätzliche Aufgaben und Ineffizienz durch zusätzliche Funktionen wie P2P-Messaging und Konsens. Darüber hinaus validieren die meisten Blockchains immer noch korrekte Zustandsübergänge durch Neuexekution, was bedeutet, dass jeder Knoten im Netzwerk Transaktionen erneut ausführen muss, um die Korrektheit des vorgeschlagenen Zustandsübergangs zu überprüfen. Dies ist verschwenderisch und steht im krassen Gegensatz zum zentralisierten Modell, bei dem nur eine Entität ausgeführt wird. Während ein dezentrales System immer etwas Overhead und Replikation enthält, sollte das Ziel sein, asymptotisch näher an einen zentralen Benchmark in Bezug auf Effizienz heranzukommen.
Auch wenn die zugrunde liegende Infrastruktur im letzten Jahrzehnt erheblich verbessert wurde, gibt es noch viel Arbeit, bevor Blockchains das Internetmaßstab bewältigen können. Wir sehen Kompromisse entlang zweier Hauptachsen - Ausdruckskraft und Härte - und glauben, dass Modularität schnellere Experimente entlang der Kompromissgrenze ermöglicht, während ZK sie erweitert:

Die Modularität ist das Maß, in dem die Komponenten eines Systems getrennt und neu kombiniert werden können. Durch schnellere Rückkopplungsschleifen und geringere Eintrittsbarrieren mit weniger Kapital (sowohl wirtschaftlich als auch menschlich) - ermöglicht die Modularität schnellere Experimente und Spezialisierung. Die Frage der Modularität vs. Integration ist nicht binär, sondern eher ein Spektrum, entlang dem experimentiert werden kann, um herauszufinden, welche Teile es sinnvoll ist zu entkoppeln und welche nicht.
Zero Knowledge Proofs, oder ZKPs, ermöglichen es hingegen einer Partei (dem Beweiser), einer anderen Partei (dem Verifizierer) zu beweisen, dass sie etwas als wahr wissen, ohne darüber hinausgehende Informationen preiszugeben. Dies kann die Skalierbarkeit und Effizienz erhöhen, indem eine erneute Ausführung vermieden wird (Übergang von einem Modell des gesamten Ausführens zur Überprüfung zu einem Modell, bei dem einer ausführt und alle überprüfen), sowie die Ausdruckskraft erhöhen, indem die Privatsphäre ermöglicht wird (mit Einschränkungen). ZKPs verbessern auch die Schwierigkeit von Garantien, indem schwächere kryptonomische Garantien durch stärkere ersetzt werden, was durch Verschieben der Kompromissgrenze nach außen dargestellt wird (siehe Diagramm oben).

Wir glauben, dass sowohl Modularität als auch die „ZKfizierung von allem“ Trends sind, die weiter an Fahrt gewinnen werden. Während beide interessante Perspektiven bieten, um den Raum individuell zu erkunden, sind wir besonders am Schnittpunkt der beiden interessiert. Die beiden Schlüsselfragen, die uns interessieren, sind:
Bevor wir jedoch auf diese Fragen eingehen können, benötigen wir eine aktualisierte Ansicht dessen, wie der modulare Stack im Jahr 2024 aussieht.
Das oft verwendete Bild des modularen Stapels mit vier Komponenten (Ausführung, Datenveröffentlichung, Konsens, Abwicklung) ist als einfaches mentales Modell nützlich, aber wir glauben nicht mehr, dass es eine angemessene Darstellung ist, wenn man bedenkt, wie sehr sich der modulare Raum weiterentwickelt hat. Eine weitere Entbündelung führt zu neuen Komponenten, die zuvor als Teil eines größeren Ganzen angesehen wurden, und schafft gleichzeitig neue Abhängigkeiten und die Notwendigkeit einer sicheren Interoperabilität zwischen den verschiedenen Komponenten (mehr dazu später). Angesichts des Tempos, mit dem sich der Raum entwickelt, kann es schwierig sein, bei allen Innovationen auf verschiedenen Ebenen des Stapels auf dem neuesten Stand zu bleiben.
Frühere Versuche, den Web3-Stack zu erkunden, umfassen diejenigen von Kyle Samani(Multicoin) - ursprünglich veröffentlicht in2018und aktualisiert in2019. Es umfasst alles von dezentralem Internetzugang im letzten Meile (wie Helium) zur Verwaltung von Schlüsseln für Endbenutzer. Während die dahinter stehenden Prinzipien wiederverwendet werden könnten, fehlen einige Elemente wie der Nachweis und die Überprüfung vollständig.
Mit diesen Gedanken im Hinterkopf haben wir versucht, eine aktualisierte Darstellung dessen zu erstellen, wie der modulare Stack im Jahr 2024 aussieht, der auf dem bestehenden vierstufigen modularen Stack aufbaut. Es ist nach Komponenten und nicht nach Funktionalität aufgeteilt, was bedeutet, dass P2P-Netzwerke beispielsweise im Konsens enthalten sind und nicht als separate Komponente aufgeteilt werden - hauptsächlich, weil es schwierig ist, ein Protokoll darum aufzubauen.

Jetzt, da wir einen aktualisierten Blick auf den modularen Stapel haben, können wir uns der eigentlichen Frage zuwenden, d.h. welche Teile des Stapels ZK bereits durchdrungen hat und welche offenen Probleme durch die Einführung von ZK gelöst werden könnten (entweder durch Vermeidung einer erneuten Ausführung oder Datenschutzfunktionen). Nachfolgend finden Sie eine Zusammenfassung unserer Ergebnisse, bevor wir tiefer in jeden einzelnen Bestandteil eintauchen.

Aktuelle Benutzer von Blockchains müssen sich durch mehrere Ketten, Geldbörsen und Schnittstellen navigieren, was umständlich ist und die breitere Akzeptanz behindert. Die Abstraktion der Benutzeroperation ist ein Überbegriff für jeden Versuch, diese Komplexität abzubilden und es den Benutzern zu ermöglichen, nur mit einer Schnittstelle zu interagieren (zum Beispiel einer spezifischen Anwendung oder Geldbörse), wobei die gesamte Komplexität auf der Backend-Seite erfolgt. Einige Beispiele für Infrastrukturniveauabstraktionen sind:
Transaktionen müssen geordnet werden, bevor sie zu einem Block hinzugefügt werden, was auf verschiedene Arten geschehen kann: Anordnung nach Rentabilität für den Vorschlagenden (zuerst die am besten zahlenden Transaktionen), in der Reihenfolge, in der sie eingereicht wurden (First-In, First-Out), Priorität für Transaktionen aus privaten Mem-Pools usw.
Eine weitere Frage ist, wer die Transaktionen bestellen darf. In einer modularen Welt können dies mehrere verschiedene Parteien tun, darunter der Rollup-Sequenzer (zentralisiert oder dezentralisiert), L1-Sequenzierung (basierend auf Rollups) und ein gemeinsames Sequenzierungsnetzwerk (dezentralisiertes Netzwerk von Sequenzierern, das von mehreren Rollups verwendet wird). Alle diese haben unterschiedliche Vertrauensannahmen und SkalierungsfähigkeitenIn der Praxis kann die tatsächliche Anordnung von Transaktionen und deren Bündelung in einen Block auch außerhalb des Protokolls von spezialisierten Akteuren (Blockbuildern) durchgeführt werden.
Die Ausführungsschicht enthält die Logik, wie der Zustand aktualisiert wird und ist der Ort, an dem Smart Contracts ausgeführt werden. Neben der Rückgabe eines Ausgabe der Berechnung ermöglichen zkVMs auch den Nachweis, dass Zustandsänderungen korrekt durchgeführt wurden. Dies ermöglicht es anderen Netzwerkteilnehmern, die korrekte Ausführung zu überprüfen, indem sie nur den Beweis überprüfen, anstatt Transaktionen erneut ausführen zu müssen.
Neben einer schnelleren und effizienteren Überprüfung ermöglicht ein weiterer Vorteil der nachweisbaren Ausführung eine komplexere Berechnung, da Sie nicht auf die typischen Probleme von Gas und begrenzten On-Chain-Ressourcen bei Off-Chain-Berechnungen stoßen. Dies öffnet die Tür zu völlig neuen Anwendungen, die rechnerisch intensiver sind und auf Blockchains ausgeführt werden, und garantierte Berechnungen nutzen.
Datenabfrage oder das Lesen von Daten aus der Blockchain ist ein wesentlicher Bestandteil der meisten Anwendungen. Während sich viel Diskussion und Bemühungen in den letzten Jahren auf die Skalierung von Schreibvorgängen (Ausführung) konzentriert haben - die Skalierung von Lesevorgängen ist aufgrund des Ungleichgewichts zwischen den beiden (insbesondere in einer dezentralen Umgebung) noch wichtiger. Das Verhältnis zwischen Lesen und Schreiben unterscheidet sich zwischen Blockchains, aber ein Datenpunkt ist Sig's Schätzungdass >96% aller Aufrufe an Knoten auf Solana Lese-Aufrufe waren (basierend auf 2 Jahren empirischer Daten) - ein Lese/Schreib-Verhältnis von 24:1.
Das Hochskalieren von Lesevorgängen umfasst sowohl die Steigerung der Leistung (mehr Lesevorgänge pro Sekunde) mit dedizierten Validierungsclients (wie Sig auf Solana) als auch die Ermöglichung komplexerer Abfragen (Kombination von Lesevorgängen mit Berechnungen), beispielsweise mit Hilfe von Co-Prozessoren.
Ein weiterer Aspekt besteht darin, die Methoden der Datenabfrage zu dezentralisieren. Heutzutage werden die meisten Datenabfrageanfragen in Blockchains von vertrauenswürdigen Drittanbietern (reputation-based) wie RPC-Nodes erleichtert.Infura) und Indexer (Dune). Beispiele für dezentralere Optionen sind Der Graphund Speicherungsnachweis-Betreiber (die auch überprüfbar sind). Es gibt auch mehrere Versuche, ein dezentrales RPC-Netzwerk zu erstellen, wie Infura DINoderLava Netzwerk(abgesehen von dezentralen RPC zielt Lava darauf ab, später zusätzliche Datendienste anzubieten).
Mit immer mehr Anwendungen, die ZKPs integrieren, werden Beweisführung und Verifizierung schnell zu einem wesentlichen Bestandteil des modularen Stapels. Heute ist jedoch die meiste Beweisführungsinfrastruktur noch genehmigt und zentralisiert, wobei viele Anwendungen auf einem einzigen Beweiser beruhen.
Während die zentrale Lösung weniger komplex ist, bringt die Dezentralisierung der Nachweisarchitektur und deren Aufteilung in ein separates Komponente im modularen Stack mehrere Vorteile mit sich. Ein wesentlicher Vorteil liegt in der Form von Liveness-Garantien, die für Anwendungen, die von häufiger Nachweisgenerierung abhängig sind, entscheidend sind. Benutzer profitieren auch von einer höheren Zensurresistenz und niedrigeren Gebühren, die durch Wettbewerb und die Aufteilung der Arbeitslast auf mehrere Nachweiser erzielt werden.
Wir glauben, dass Allzweck-Beweisnetzwerke (viele Apps, viele Beweiser) den speziellen Beweisnetzwerken (eine App, viele Beweiser) überlegen sind, aufgrund einer höheren Auslastung der vorhandenen Hardware und einer geringeren Komplexität für Beweiser. Eine höhere Auslastung kommt auch den Benutzern zugute, indem die Beweiser nicht durch höhere Gebühren für die Redundanz entschädigt werden müssen (müssen immer noch fixe Kosten decken).
Figment CapitalEine gute Übersicht über den aktuellen Stand der Nachweiskette wurde bereitgestellt, die sowohl die Nachweisgenerierung als auch die Nachweisaggregation umfasst (die ihrerseits Nachweisgenerierung ist, aber nur zwei Nachweise als Eingabe anstelle des Ausführungstrace nimmt).

Quelle: Figment Capital

Quelle: Figment Capital
Die Datenveröffentlichung (DP) gewährleistet, dass Daten für einen kurzen Zeitraum (1-2 Wochen) verfügbar und leicht abrufbar sind. Dies ist sowohl für die Sicherheit (optimistische Rollups benötigen Eingabedaten zur Überprüfung der korrekten Ausführung durch Neu-Ausführung während der Herausforderungsphase, 1-2 Wochen) als auch für die Lebendigkeit (selbst wenn ein System Gültigkeitsnachweise verwendet, könnten die zugrunde liegenden Transaktionsdaten benötigt werden, um den Besitz von Vermögenswerten für Fluchttüren, erzwungene Transaktionen oder zur Überprüfung, ob die Eingaben den Ausgaben entsprechen, zu belegen). Benutzer (wie z.B. zk-Bridges und Rollups) tragen eine einmalige Gebühr, die die Kosten für die Speicherung von Transaktionen und Zuständen für einen kurzen Zeitraum abdeckt, bis sie gelöscht werden. Datenveröffentlichungsnetzwerke sind nicht für die langfristige Datenspeicherung ausgelegt (stattdessen siehe nächsten Abschnitt für mögliche Lösungen).
Celestiawar die erste alternative DP-Schicht, die ihr Hauptnetz (31. Oktober) gestartet hat, aber es wird bald viele Alternativen zur Auswahl geben, da Verfügbar, EigenDA, und In der Nähe von DAwerden alle voraussichtlich im Jahr 2024 starten. Darüber hinaus, Ethereums EIP 4844 Aktualisieren Sie die skalierte Datenveröffentlichung auf Ethereum (zusätzlich zur Schaffung eines separaten Gebührenmarktes für Blob Storage) und schaffen Sie die Voraussetzungen für vollständiges Dank-Sharding. DP expandiert auch auf andere Ökosysteme - ein Beispiel ist @nubit_org/riema-sichert-engel-investment-fur-den-start-der-ersten-bitcoin-eigenen-datenverfugbarkeitsschicht-49ccf0487380">Nubit, das darauf abzielt, ein eigenes DP auf Bitcoin aufzubauen.

Viele DP-Lösungen bieten auch Dienstleistungen über reine Datenausgaben hinaus an, einschließlich gemeinsamer Sicherheit für souveräne Rollups (wie CelestiaundVerfügbar) oder eine reibungslosere Interoperabilität zwischen Rollups (wie AvailsNexus). Es gibt auch Projekte (DomiconundSchwerelosigkeit) bieten sowohl die Veröffentlichung von Daten als auch die langfristige Speicherung des Zustands an, was ein überzeugendes Angebot ist. Dies ist auch ein Beispiel für die Neubündelung von zwei Komponenten im modularen Stack, etwas, das wir wahrscheinlich in Zukunft häufiger sehen werden (Experimente sowohl mit weiterer Entbündelung als auch mit erneuter Bündelung).
Das Speichern historischer Daten ist hauptsächlich für die Synchronisierung und die Bedienung von Datenanforderungen wichtig. Es ist jedoch nicht machbar, dass jeder vollständige Knoten alle Daten speichert, und die meisten vollständigen Knoten löschen alte Daten, um die Hardwareanforderungen vernünftig zu halten. Stattdessen verlassen wir uns auf spezialisierte Parteien (Archivknoten und Indexer), um alle historischen Daten zu speichern und sie auf Anfrage der Benutzer verfügbar zu machen.
Es gibt auch dezentrale Speicheranbieter wie FilecoinoderArweave, die langfristige dezentrale Speicherlösungen zu einem vernünftigen Preis anbieten. Während die meisten Blockchains keinen formalen Prozess des Archivspeichers haben (einfach auf die Speicherung durch jemanden verlassen), sind dezentrale Speicherprotokolle gute Kandidaten für die Speicherung von Historischem und die Hinzufügung von Redundanz (mindestens X Knoten speichern die Daten) durch die eingebauten Anreize des Speichernetzwerks.
Da Blockchains verteilte P2P-Systeme sind, gibt es keine vertrauenswürdige dritte Partei, die die globale Wahrheit bestimmt. Stattdessen einigen sich die Knoten des Netzwerks darauf, was die aktuelle Wahrheit ist (welcher Block der richtige ist) durch einen Mechanismus namens Konsens. PoS-basierte Konsensmethoden könnten entweder in BFT-basierte (bei denen das byzantinisch fehlertolerante Quorum der Validatoren den endgültigen Zustand entscheidet) oder kettenbasierte (bei denen der endgültige Zustand retrospektiv durch die Gabelwahlregel entschieden wird) kategorisiert werden. Während die meisten bestehenden PoS-Konsensimplementierungen BFT-basiert sind, Cardanoist ein Beispiel für eine Implementierung der längsten Kette. Es gibt auch ein wachsendes Interesse an DAG-basierten Konsensmechanismen wie Narwhal-Bullshark, die in verschiedenen Variationen über Aleo, Aptos und Sui implementiert sind.
Konsens ist ein entscheidender Bestandteil vieler verschiedener Komponenten des modularen Stapels, einschließlich gemeinsamer Sequenzer, dezentraler Beweisführung und blockchain-basierter Datenveröffentlichungsnetzwerke (nicht auf Ausschussbasis wie EigenDA).
Abwicklung ist dem höchsten Gericht der Gerechtigkeit ähnlich - die endgültige Quelle der Wahrheit, in der die Richtigkeit von Zustandsübergängen überprüft und Streitigkeiten beigelegt werden. Eine Transaktion gilt als endgültig, wenn sie an dem Punkt unumkehrbar ist (oder im Falle der wahrscheinlichen Endgültigkeit - an dem Punkt, an dem es ausreichend schwer wäre, sie umzukehren). Die Zeit bis zur Endgültigkeit hängt von der zugrunde liegenden Abwicklungsschicht ab, die wiederum von der spezifischen Endgültigkeitsregel und der Blockzeit abhängt.
Langsame Finalität ist insbesondere ein Problem bei der Cross-Rollup-Kommunikation, bei der Rollups auf die Bestätigung von Ethereum warten müssen, bevor sie eine Transaktion genehmigen können (7 Tage für optimistische Rollups, 12 Minuten und Testzeit für Gültigkeitsrollups). Dies führt zu einer schlechten Benutzererfahrung. Es gibt mehrere Bemühungen, dieses Problem mithilfe von Vorabbestätigungen mit einem bestimmten Sicherheitsniveau zu lösen. Beispiele hierfür sind sowohl ökosystemspezifische Lösungen (Polygon AggLayeroderzkSync HyperBrücke) und allgemeine Lösungen wie Nears schnelle Finality-Schichtdas darauf abzielt, mehrere verschiedene Rollup-Ökosysteme zu verbinden, indem es die wirtschaftliche Sicherheit von EigenLayer nutzt. Es besteht auch die Möglichkeit von Native Rollup-Brücken, die EigenLayer nutzenfür sanfte Bestätigungen, um auf die vollständige Endgültigkeit zu warten zu vermeiden.
Sicherheit hängt mit der Härte von Garantien zusammen und ist ein wesentlicher Bestandteil des Wertversprechens von Blockchains. Das Bootstrapping der kryptökonomischen Sicherheit ist jedoch schwierig und erhöht die Einstiegshürden, was eine Reibung für Innovationen darstellt, die diese Anwendungen benötigen (verschiedene Middleware und alternative L1s).
Die Idee der gemeinsamen Sicherheit besteht darin, die vorhandene wirtschaftliche Sicherheit von PoS-Netzwerken zu nutzen und zusätzlich einem zusätzlichen Slashing-Risiko (Bedingungen für Bestrafung) auszusetzen, anstatt dass jeder Bestandteil versucht, sein eigenes zu starten. Es gab einige frühere Versuche, dasselbe in PoW-Netzwerken zu tunzusammengeführtes Mining.)), aber ungleichgewichtete Anreize machten es für Miner einfacher, zu kollaborieren und ein Protokoll auszunutzen (schwieriger, schlechtes Verhalten zu bestrafen, da die Arbeit in der physischen Welt stattfindet, d.h. Mining mithilfe von Rechenleistung). PoS-Sicherheit ist flexibler und kann von anderen Protokollen genutzt werden, da sie sowohl positive (Staking-Rendite) als auch negative (Slashing) Anreize bietet.
Protokolle, die auf dem Prinzip der gemeinsamen Sicherheit aufbauen, umfassen:
Sichere und effiziente Interoperabilität bleibt ein großes Problem in einer Multi-Chain-Welt, wie es durch das Gate.com Exchange exemplifiziert wird.2,8 Mrd. USD durch Brücken-Hacks verlorenIn modularen Systemen wird die Interoperabilität noch wichtiger - Sie kommunizieren nicht nur mit anderen Ketten, sondern modulare Blockchains erfordern auch, dass verschiedene Komponenten miteinander kommunizieren (wie z. B. DA und Abwicklungsschicht). Daher ist es nicht mehr möglich, einfach einen vollständigen Knoten auszuführen oder einen einzelnen Konsensnachweis zu überprüfen, wie bei integrierten Blockchains. Dies fügt der Gleichung mehr bewegliche Teile hinzu.
Interoperabilität umfasst sowohl Token-Brücken als auch allgemeinere Nachrichtenübermittlung über Blockchains hinweg. Es gibt verschiedene Optionen, die alle unterschiedliche Kompromisse in Bezug auf Sicherheit, Latenz und Kosten eingehen. Die Optimierung für alle drei ist sehr schwierig und erfordert in der Regel, mindestens einen zu opfern. Darüber hinaus machen unterschiedliche Standards über verschiedene Chains Implementierungen auf neuen Chains schwieriger.

Während uns immer noch eine klare Definition der verschiedenen Arten von leichten Clients (oder Knoten) fehlt, dieser Beitrag von Dino(Mitbegründer von Fluent & Modular Media) gibt eine gute Einführung. Die meisten leichten Clients überprüfen heute nur den Konsens, aber idealerweise würden wir leichte Clients haben, die auch die Ausführung und DA überprüfen können, um Vertrauensannahmen zu reduzieren. Dies würde es ermöglichen, nahe an der Sicherheit eines vollständigen Knotens zu liegen, ohne hohe Hardwareanforderungen.

Vorausgesetzt, dass wir einen Zustand erreichen können, in dem die Generierung von ZKPs sehr schnell (fast mit Lichtgeschwindigkeit) und unglaublich günstig (fast kostenlos) wird, wie sieht das Endspiel aus? Mit anderen Worten - wann hat ZK den modularen Stapel aufgegessen?
Im Allgemeinen glauben wir, dass in diesem Zustand der Welt zwei Dinge wahr wären:
Eine dritte Bedingung wäre die Privatsphäre (oder das Informationsflussmanagement), aber es ist komplizierter. ZKPs können für einige Datenschutzanwendungen mit clientseitigem Nachweis verwendet werden, was Plattformen wie Aleo, Aztec oder Polygon Miden aufbauen, aber die Erreichung einer weitreichenden Privatsphäre für alle potenziellen Anwendungsfälle hängt auch vom Fortschritt von MPC und FHE ab - ein potentielles Thema für einen zukünftigen Blogbeitrag.
Was ist, wenn wir falsch liegen und die Zukunft weder modular noch ZK'fied ist? Einige potenzielle Risiken für unsere These sind:
Sowohl Benutzer als auch Entwickler leiden unter der ständig wachsenden Anzahl von Ketten. Benutzer müssen Gelder über mehrere Ketten hinweg verwalten (und möglicherweise über mehrere Geldbörsen). Anwendungsentwickler hingegen haben aufgrund der sich immer noch stark entwickelnden Branche weniger Stabilität und Vorhersagbarkeit, was es schwieriger macht, zu entscheiden, auf welcher Kette sie aufbauen sollen. Sie müssen auch über die Fragmentierung von Status und Liquidität nachdenken. Dies trifft insbesondere jetzt zu, da wir immer noch an der Grenze experimentieren, welche Komponenten sinnvoll entkoppelt werden sollen und welche wieder gekoppelt werden. Wir glauben, dass die Abstraktion der Benutzeroperation sowie sichere und effiziente Interoperabilitätslösungen entscheidende Teile sind, um dieses Problem zu lösen.

Es führt kein Weg daran vorbei, dass die Erzeugung von Nachweisen zu lange dauert und die Kosten sowohl für den Nachweis als auch für die Überprüfung heute immer noch viel zu hoch sind. Konkurrierende Lösungen wie vertrauenswürdige Ausführungsumgebungen/TEE (Privatsphäre) oder optimistische/kryptowirtschaftliche Sicherheitslösungen (Kosten) machen heute für viele Anwendungen immer noch mehr Sinn.
Es wird jedoch eine Menge Arbeit im Bereich der Softwareoptimierung und Hardwarebeschleunigung für ZKPs durchgeführt. Die Beweisaggregation wird dazu beitragen, die Verifizierungskosten weiter zu senken, indem die Kosten auf mehrere verschiedene Parteien verteilt werden (geringere Kosten pro Benutzer). Es besteht auch die Möglichkeit, die Basisschicht so anzupassen, dass sie für die Verifizierung von ZKPs optimierter ist. Eine Herausforderung bei der Hardwarebeschleunigung für ZKPs ist die schnelle Entwicklung von Beweissystemen. Dies erschwert die Erstellung spezialisierter Hardware (ASICs), da sie schnell veralten können, wenn sich die Standards der zugrunde liegenden Beweissysteme entwickeln.
Ingonyamahat versucht, eine Benchmark für die Leistung von Prover durch eine vergleichbare Metrik namens ZK score zu erstellen. Es basiert auf den Kosten für die Ausführung von Berechnungen (OPEX) und verfolgt MMOPS/WATT, wobei MMOPS für modulare Multiplikationsoperationen pro Sekunde steht. Für weitere Informationen zum Thema empfehlen wir Blogs von @Cysic/BJQcpVbXn?ref=blog.succinct.xyz">Cysic und @ingonyama/Neubewertung-Paradigmen-Hardware-Beschleunigung-für-Zero-Knowledge-Beweise-5dffacdc24b4">Ingonyama, sowie dieses Gespräch von Wei Dai.
ZKPs können nur zur Erreichung von Datenschutz für persönliche Zustände verwendet werden, nicht für gemeinsame Zustände, bei denen mehrere Parteien auf verschlüsselten Daten rechnen müssen (wie bei einem privaten Uniswap). FHE und MPC sind auch für vollständige Privatsphäre erforderlich, aber diese müssen hinsichtlich Kosten und Leistung um viele Größenordnungen verbessert werden, bevor sie als tragfähige Optionen für den breiteren Einsatz in Betracht gezogen werden können. Dennoch sind ZKPs nach wie vor nützlich für bestimmte Anwendungsfälle, die keinen privaten gemeinsamen Zustand erfordern, wie z.B. Identitätslösungen oder Zahlungen. Nicht alle Probleme müssen mit demselben Werkzeug gelöst werden.
Also, wo stehen wir? Während wir jeden Tag Fortschritte machen, bleibt noch viel Arbeit zu tun. Die drängendsten Probleme, die es zu lösen gilt, sind, wie Wert und Informationen sicher zwischen verschiedenen modularen Komponenten fließen können, ohne Geschwindigkeit oder Kosten zu opfern, sowie alles von Endverbrauchern abstrahieren, so dass sie sich keine Gedanken darüber machen müssen, Brücken zwischen verschiedenen Ketten zu schlagen, Geldbörsen zu wechseln usw.
Während wir derzeit noch stark in der Experimentierphase sind, sollten sich die Dinge im Laufe der Zeit stabilisieren, während wir herausfinden, wo auf dem Spektrum die optimalen Kompromisse für jeden Anwendungsfall liegen. Das wiederum wird Raum für Standards (informell oder formal) schaffen, um auf diesen Ketten aufbauenden Entwicklern mehr Stabilität zu verleihen.
Heute gibt es immer noch viele Anwendungsfälle, die standardmäßig auf kryptowirtschaftliche Sicherheit setzen, aufgrund der Kosten und Komplexität bei der Erzeugung von ZKPs, und einige, die eine Kombination aus beiden erfordern. Allerdings sollte dieser Anteil im Laufe der Zeit abnehmen, da wir effizientere Nachweissysteme und spezialisierte Hardware entwerfen, um die Kosten und Latenzzeit des Nachweises & der Verifizierung zu senken. Mit jeder exponentiellen Kosten- und Geschwindigkeitsreduktion werden neue Anwendungsfälle freigeschaltet.
Während sich dieser Beitrag speziell auf ZKPs konzentrierte, sind wir auch zunehmend daran interessiert, wie moderne kryptographische Lösungen (ZKPs, MPC, FHE und TEE) zusammenwirken werden - etwas, das wir bereits beobachten.
Danke fürs Lesen!





