存储 phi tập trung luôn bị kìm hãm bởi độ dư thừa cao và áp lực chi phí. Thuật toán mã hóa hai chiều Red Stuff của giao thức Walrus đang thay đổi căn bản tình hình này.
So với các giải pháp truyền thống như Filecoin, Arweave, các giải pháp này dựa vào chiến lược sao chép đơn giản và thô bạo — hệ số dư thừa lên tới 25 lần hoặc thậm chí hàng nghìn lần. Walrus đã đổi cách tiếp cận: sau khi chia dữ liệu thành các mảnh nhỏ (slivers) rồi phân tán lưu trữ, chỉ cần hệ số sao chép từ 4 đến 5 lần là có thể cung cấp khả năng phục hồi dữ liệu mạnh mẽ hơn và cơ chế chấp nhận lỗi Byzantine.
Hiệu quả tăng khoảng 4.5 lần, chi phí ghi và đọc được tối ưu đồng bộ — điều này không chỉ là con số đẹp. Đối với các kịch bản lưu trữ khối lượng lớn như bộ dữ liệu AI, phát trực tuyến độ phân giải cao, điều này có nghĩa là giải pháp phi tập trung cuối cùng có thể thực sự mang lại lợi ích kinh tế, chi phí gần bằng dịch vụ đám mây tập trung. Đây mới là bước đột phá công nghệ thực sự cần thiết trong lĩnh vực lưu trữ.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
14 thích
Phần thưởng
14
8
Đăng lại
Retweed
Bình luận
0/400
GasGoblin
· 01-11 14:14
Walrus's 4.5x efficiency improvement this round really does put Filecoin in its place, finally someone's filling this storage pit.
Red Stuff algorithm is so impressive, only needs 4-5x redundancy and can still handle Byzantine?
Storage costs approaching AWS levels is honestly big if true, those AI vendors must be thrilled.
If the algorithm optimization is solid, decentralized storage might actually have a shot.
Those high-redundancy schemes before were just fake demand, no wonder nobody used them.
Xem bản gốcTrả lời0
StakeTillRetire
· 01-09 04:55
Cuối cùng đã có người nghiêm túc làm về lưu trữ, chiến lược sao chép của Filecoin đã đến lúc cần tối ưu hóa
Tăng hiệu quả gấp 4.5 lần, đây mới là tiến bộ thực sự, không phải chỉ là thổi phồng khái niệm
Chờ đã, thuật toán Red Stuff này thực sự mạnh đến vậy sao? Có dữ liệu thử nghiệm không?
So với những dự án chỉ biết hô hào khẩu hiệu, ý tưởng của Walrus có chút gì đó đáng giá
Chi phí gần bằng mức dịch vụ đám mây? Cảm giác có phần phóng đại quá rồi nhỉ
Xem bản gốcTrả lời0
LayerZeroHero
· 01-08 19:21
Thực tế đã chứng minh... Giải pháp dự phòng của Filecoin thực sự quá xa xỉ. Việc nâng cao hiệu quả 4.5 lần không phải là chuyện nhỏ, tôi phải tìm thời gian để thử nghiệm cụ thể hiệu suất mã hóa xóa của Walrus, đặc biệt muốn xác nhận khả năng phòng thủ thực tế của khả năng chịu lỗi Byzantine trong tình huống nút độc hại.
Xem bản gốcTrả lời0
FOMOSapien
· 01-08 14:52
Cuối cùng đã có người làm rõ vấn đề lưu trữ, hệ thống Filecoin thật sự là quá phi lý
---
Tăng hiệu quả 4.5 lần, nghe có vẻ đáng tin? Phải chờ thực tế chạy mới biết được
---
Chi phí gần như tiệm cận dịch vụ đám mây tập trung... Nếu đúng như vậy, lưu trữ phi tập trung mới thực sự bùng nổ
---
Ý tưởng của Walrus so với kiểu sao chép chồng chất của Arweave thực sự thông minh hơn nhiều
---
Về đổi mới thuật toán, cuối cùng cũng có những ý kiến khác biệt rồi
---
Khoan đã, thuật toán Red Stuff này có thực sự ổn định khi chạy không, sợ lỗi bug quá?
---
Tăng cường dư thừa từ 25 lần xuống còn 4 lần, con số này khá ấn tượng đấy
---
Mùa xuân của lưu trữ phi tập trung có thể sẽ đến? Không dám quá lạc quan
---
Chống lỗi Byzantine + phục hồi dữ liệu song song, ý tưởng thiết kế khá hay
---
Nói đơn giản là dùng cách thông minh hơn để thay thế sao chép brute-force, tôi hiểu rồi
Xem bản gốcTrả lời0
BuyTheTop
· 01-08 14:44
Cuối cùng đã có người giải quyết được vấn đề này, chiến lược sao chép của Filecoin thực sự quá mạnh mẽ
Tăng hiệu quả 4.5 lần nghe có vẻ không nhiều, nhưng khi tính toán sẽ thấy sự khác biệt lớn đến mức nào
Red Stuff thực sự giải quyết được điểm tôi cảm thấy phiền nhất, chi phí có thể gần bằng mức dịch vụ đám mây, điều này đã được nói rất lâu và cuối cùng cũng có tiến triển
Tuy nhiên, liệu Walrus có thể thực sự phổ biến hay không còn phụ thuộc vào hệ sinh thái, công nghệ tốt là một chuyện
Ý tưởng phân đoạn thông minh này còn tốt hơn nhiều so với cách xây dựng thô sơ của Arweave, đây mới là con đường đúng đắn cho lưu trữ
Tôi rất mong chờ khi nào cái này có thể chạy trên mainnet
Xem bản gốcTrả lời0
TokenTaxonomist
· 01-08 14:43
hmm, 4.5x hiệu quả trên giấy nghe có vẻ ổn nhưng để tôi mở bảng tính của mình ra đã... độ dư 25x của filecoin không hề "đơn giản" nếu bạn hiểu mô hình bảo mật, đúng không? walrus thực hiện mã hóa xóa tại 4-5x vẫn cần các bằng chứng về khả năng chịu lỗi Byzantine trong thực tế theo ý kiến của tôi. dữ liệu cho thấy tuyên bố về sự cân bằng chi phí cần có sự hỗ trợ chính xác hơn trước khi chúng ta tuyên bố đây là người chiến thắng tiến hóa 🤔
Xem bản gốcTrả lời0
PriceOracleFairy
· 01-08 14:40
Yo walrus vừa mới khác hẳn... những lợi suất hiệu quả 4.5x không phải là meme, đó là arbitrage thực tế được tích hợp vào lớp giao thức. Độ dự phòng 25x của filecoin luôn là bí mật bẩn của thị trường lol
Xem bản gốcTrả lời0
SneakyFlashloan
· 01-08 14:28
Thằng này, Walrus cái nâng cao hiệu suất 4.5 lần này có nghiêm túc không? Cuối cùng cũng có ai dám động tới bánh của Filecoin rồi
Có thật không, chỉ 4 đến 5 lần dự phòng dữ liệu là đủ làm việc của Arweave? Nếu con số này có thể triển khai được thì tao all in luôn
Lưu trữ đây mãi là cơn ác mộng của Web3, giờ cuối cùng cũng thấy tia sáng hy vọng rồi
Nhưng mà nói lại, cái erasure coding này có đáng tin cậy không, sẽ không phải là dự án PowerPoint tiếp theo chứ?
Đợi xíu, nếu nó thực sự có thể tiếp cận được giá cloud service, thì những bạn IPFS kia có thể sẽ lúng túng rồi...
存储 phi tập trung luôn bị kìm hãm bởi độ dư thừa cao và áp lực chi phí. Thuật toán mã hóa hai chiều Red Stuff của giao thức Walrus đang thay đổi căn bản tình hình này.
So với các giải pháp truyền thống như Filecoin, Arweave, các giải pháp này dựa vào chiến lược sao chép đơn giản và thô bạo — hệ số dư thừa lên tới 25 lần hoặc thậm chí hàng nghìn lần. Walrus đã đổi cách tiếp cận: sau khi chia dữ liệu thành các mảnh nhỏ (slivers) rồi phân tán lưu trữ, chỉ cần hệ số sao chép từ 4 đến 5 lần là có thể cung cấp khả năng phục hồi dữ liệu mạnh mẽ hơn và cơ chế chấp nhận lỗi Byzantine.
Hiệu quả tăng khoảng 4.5 lần, chi phí ghi và đọc được tối ưu đồng bộ — điều này không chỉ là con số đẹp. Đối với các kịch bản lưu trữ khối lượng lớn như bộ dữ liệu AI, phát trực tuyến độ phân giải cao, điều này có nghĩa là giải pháp phi tập trung cuối cùng có thể thực sự mang lại lợi ích kinh tế, chi phí gần bằng dịch vụ đám mây tập trung. Đây mới là bước đột phá công nghệ thực sự cần thiết trong lĩnh vực lưu trữ.