區塊鏈的安全性如何保護用戶免受意外風險

在Farcaster的最新討論中,Vitalik Buterin分享了關於區塊鏈系統安全性與用戶體驗之間複雜關係的深刻觀點。根據Foresight News的報導,Buterin透露了挑戰普遍假設的想法,即安全性與用戶體驗是兩個獨立的領域。相反,它們密切相關,並源自相同的目標:縮小用戶意圖與系統實際運作之間的差距。

用戶意圖:經常被忽視的安全基礎

根據Buterin,區塊鏈安全的核心在於系統能夠準確理解並執行用戶的意圖。在這個觀點中,安全性著重於降低尾端風險——由對抗行為或偏離原始意圖所引發的罕見但影響巨大的事件。

然而,用數學方式定義用戶意圖遠比看起來複雜。Buterin強調,即使是像“向Bob發送1 ETH”這樣的簡單指令,也蘊含著隱藏的複雜性。系統如何知道所指的Bob是誰?如果Bob的身份可以被其他地址混淆呢?用戶的隱私又為何增加了另一層難題——因為元數據洩露可能揭示比數據加密本身更多的信息。

用戶意圖與實際執行之間的不一致性形成了安全漏洞。用戶體驗也可以用類似的方式來定義,證明用戶保護與易用性並不矛盾。

從理論到實踐:多層次安全解決方案保障用戶體驗

Buterin建議,有效的安全解決方案需要多層次的方法——允許用戶通過多種互補的機制來表達其意圖。系統只有在不同角度達成一致時才會採取行動。

一些可以保護用戶的多層機制包括:

  • 類型系統形式驗證,在執行前驗證交易邏輯
  • 交易模擬,讓用戶在確認前預覽結果
  • 事後聲明,用於事後審計
  • 多簽或社交恢復機制,為用戶提供在出錯時取消操作的途徑
  • 支出限制,控制用戶的財務暴露
  • 異常確認,在交易可疑時提醒用戶

每一層都增加冗餘,降低系統行為偏離用戶真實意圖的可能性。

AI技術作為輔助:超越大型語言模型(LLM)來保護用戶

反思在精確定義用戶目標方面的困難,Buterin提醒我們在早期AI安全中遇到的類似挑戰。他提出,大型語言模型(LLM)可以作為意圖模擬器——理解用戶想做什麼的輔助工具。

普通的LLM能接近人類的常識理解,而個性化的LLM則能更貼近捕捉特定用戶的偏好。然而,Buterin警告不要完全依賴LLM來判斷用戶意圖。相反,LLM應作為多層安全系統中的一個額外視角——增強整體冗餘的效果,而非成為單點故障。

這種方法反映了一個更廣泛的哲學:保護用戶免受不可預見風險需要結合技術、多層驗證與深刻理解用戶意圖。通過將區塊鏈安全與直觀的用戶體驗相結合,生態系統能打造出不僅安全且人人都能輕鬆使用的系統。

ETH1.28%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)