總結
Near基金會正在開發AI「數字雙生」代表,以解決其去中心化自治組織(DAO)中投票參與度低的問題,旨在簡化治理和決策流程。
- AI代表旨在學習用戶偏好並代表DAO成員投票,將治理轉化為一個即時的「數學問題」。
- 分階段推出將從類似聊天機器人的顧問開始,逐步發展到獨立的AI代表,同時保留關鍵決策中的人為因素。
- 市場影響包括提高效率和可擴展性的潛力,但也引發了對去中心化、安全性和法律責任的擔憂。
Near基金會正在開發AI「數字雙生」代表,以解決其去中心化自治組織(DAO)中投票參與度低的問題,旨在簡化治理和決策流程。
Near基金會正在開發人工智能(AI)「數字雙生」代表,以解決其去中心化自治組織(DAO)中持續存在的低投票參與度問題。這項倡議旨在簡化治理流程,儘管它引入了關於去中心化和監督的新考量。
負責監督layer-1 Near協議的Near基金會正在實施AI驅動的代表,以代表DAO成員並為其投票。這一策略直接回應了平均DAO參與率通常在15%到25%之間的問題。這些低參與率可能導致權力集中、決策效率低下,並增加治理攻擊的脆弱性。
據Near基金會專門研究AI和治理的研究員Lane Rettig稱,AI「數字雙生」將通過訪談、投票歷史分析以及監控Telegram和Discord等社交媒體平台來學習用戶偏好。目標是使這些AI代理能夠按照其指定用戶的意願行事和投票,將治理轉化為一個「幾乎可以即時發生」的過程。
該系統的推出計劃分階段進行。它將從類似聊天機器人的顧問開始,逐步發展到獨立的AI代表。正如Rettig所闡述的,長期願景可能涉及「用數字雙生取代所有人類參與者……以解決這種投票冷漠、參與度的問題」。然而,基金會強調,對於資金分配或戰略調整等關鍵決策,仍需「人為干預」。該系統將整合可驗證的模型訓練,以確保與用戶價值觀保持一致並增強安全性。
AI代表的引入可以顯著提高Near協議DAO的效率和可擴展性。通過基於學習到的偏好自動投票,它旨在減輕低參與度帶來的風險,包括一小部分代幣持有者可能在不被注意的情況下通過有害提案的治理攻擊。如果成功,這種模式可以為更廣泛的Web3生態系統中的其他DAO建立AI驅動治理的先例,從而可能改變決策範式。
反之,這種方法引發了關於真正去中心化和人類監督作用的疑問。在治理中部署AI引入了新的風險,例如AI代理可能犯下嚴重錯誤或被破壞,導致意想不到的結果。此外,將AI整合到去中心化系統中帶來了新的法律和監管挑戰,特別是在責任、偏見、透明度和數據保護方面。歐盟等監管機構正開始提出解決AI責任的框架,這可能對此類自治系統產生深遠影響。
Near基金會的Lane Rettig強調了AI代表作為解決投票冷漠問題的「最終目標願景」。然而,他也強調了在重大決策中人類參與的必要性。Rettig表示:「我認為,在某些類別的事務中,你肯定會希望由人類做出最終決定,扣動扳機。」這一觀點承認了當前AI系統的固有局限性,儘管它們很複雜,但它們基於概率推理運行,並且在沒有人為有意輸入的情況下,可能產生通用、有偏見或不準確的結果。
更廣泛的AI和區塊鏈融合討論中的評論強調,「沒有人為的有意輸入,這些系統就不會進化——它們會漂移。」這表明,一個面向未來的AI-區塊鏈生態系統需要在系統內部有意地放置人類。這包括諸如用於AI生成的治理提案的人類辯論、人類審查**大型語言模型(LLM)**生成的智能合約以及人類驗證者審計鏈上AI決策的機制。
AI和Web3技術的融合正在重塑各個領域的決策,包括金融服務和供應鏈。Web3提供去中心化、無需信任的交互,而AI則提供效率和數據驅動的洞察。然而,這種整合導致了新的法律複雜性。例如,在沒有集中監督的情況下,為自主AI系統造成的經濟損失、數據濫用或有偏見的結果分配責任變得具有挑戰性。許多AI模型的不透明性進一步使決策背後的理由複雜化,引發了合規性和道德擔憂。
AI代理已在加密領域廣泛應用,用於構建Web3應用程序、發行代幣並與協議自主交互。Near基金會的倡議體現了利用AI解決去中心化系統中固有挑戰的日益增長的趨勢,同時也在不斷發展的監管審查和自主技術的倫理考量中航行。將AI整合到Web3中的組織必須開發穩健的治理框架、進行定期審計並保持適當的人類監督,以有效管理風險。