a16z 的最新研究報告顯示,AI 智能體能夠利用 70% 的常見 DeFi 漏洞,這標誌著區塊鏈安全軍備競賽進入了新階段。
返回
a16z 的最新研究報告顯示,AI 智能體能夠利用 70% 的常見 DeFi 漏洞,這標誌著區塊鏈安全軍備競賽進入了新階段。

a16z 研究部門的一項新研究發現,一個強大的 AI 模型在獲得針對性指導後,可以成功利用以太坊上 20 個歷史 DeFi 漏洞中的 70%。成功率從無協助狀態下的僅 10% 大幅躍升,證明了 AI 在自動化發現和執行昂貴的智慧合約攻擊方面日益增長的能力。
該研究採用了基於 GPT-5.4 架構的 Codex 模型,表明去中心化金融(DeFi)的安全格局正面臨重大轉變。「研究發現,雖然 AI 在複雜的多步驟攻擊中失敗了,但在提供結構化的領域知識時,其識別價格操縱漏洞的能力急劇上升,」該研究摘要指出。這凸顯了攻擊者和防禦者都將越來越多地使用 AI 工具的軍備競賽正在醞釀中。
在系統性測試中,a16z 的研究人員讓 AI 智能體對抗以太坊區塊鏈上發生的 20 個已知價格操縱漏洞。在沒有任何幫助的情況下,該模型只能發現並利用 20 個缺陷中的兩個,成功率為 10%。然而,當研究人員向智能體提供有關目標協議的結構化資訊(如函數名稱和代碼註釋)時,其成功率攀升至 70%。
這一發現正值 DeFi 安全風險達到歷史高點之際。就在幾周前,涉及 Kelp DAO 和 Aave 借貸協議的一起重大攻擊導致了近 3 億美元的損失。根據 NYDIG 的報告 [1],那次攻擊創建了 11.65 萬個無抵押的 rsETH 代幣,凸顯了 a16z 研究顯示的 AI 現已能夠自動化的這類漏洞所帶來的系統性風險。
a16z 的實驗表明,AI 攻擊者的有效性不在於單純的智力,而更多在於背景資訊。成功率從 10% 到 70% 的戲劇性躍升並不是由於模型更強大,而是因為向現有模型提供了更好的資訊。這種「結構化領域知識」充當了地圖,引導 AI 到達協議代碼中最脆弱的部分。
這與網路安全專家的分析一致,他們指出 AI 正在從根本上壓縮攻擊路徑。攻擊者不再需要手動執行偵查、提升權限並在網絡中橫向移動,AI 潛在大通過單一提示詞即可執行攻擊 [3]。a16z 的測試在 DeFi 背景下提供了這一理論的實踐演示:在獲得正確輸入的情況下,AI 可以直接從提示詞跳轉到漏洞利用階段。
儘管在引導條件下成功率很高,但研究也明確定義了 AI 智能體目前在網路安全方面的局限性。當面臨需要抽象推理或理解複雜 DeFi 概念(如遞歸借貸)的複雜多步攻擊時,該模型表現失敗。
這表明在設計複雜漏洞利用方案方面,人類的專業知識仍然更勝一籌。AI 智能體擅長識別和執行已知的漏洞模式,特別是在價格操縱方面,但它無法創新出新穎的多階段攻擊策略。目前,最複雜和最危險的威脅可能仍然是由人類驅動的。
這項研究描繪了未來的雙重圖景。一方面,AI 與加密貨幣的融合有望帶來新一波自主經濟智能體,它們可以在鏈上進行交易和協調,創造新的效率 [2]。另一方面,a16z 的這項研究也清醒地提醒人們,這些工具同樣可以被武器化。
這些發現發出了一個明確的信號:區塊鏈安全的未來將是一場 AI 驅動的軍備競賽。雖然惡意行為者可能利用 AI 尋找受害者,但協議開發者和審計公司可以利用同樣的技術主動識別並修復漏洞,防患於未然。對於價值數十億美元的 DeFi 行業來說,適應這一新現實已不再是可選項。
本文僅供參考,不構成投資建議。