
作者:William M. Peaster,Bankless;編譯:白水,
早在 2014 年,以太坊創(chuàng)始人 Vitalik Buterin 就開始考慮自治代理和 DAO,當時這對于世界上大多數(shù)人來說仍然是一個遙遠的夢想。
在他的早期愿景中,正如他在《DAO、DAC、DA 等:不完整的術語指南》一文中所描述的那樣,DAO 是去中心化的實體,“自動化在中心,人類在邊緣”——依賴于代碼而不是人類的層次結構來保持效率和透明度的組織。
十年后,Variant 的 Jesse Walden 剛剛發(fā)表了“DAO 2.0”,反思了自 Vitalik 早期著作以來 DAO 在實踐中的演變。
簡而言之,Walden 指出,最初的 DAO 浪潮通常類似于合作社,即以人為中心的數(shù)字組織,并不強調自動化。
盡管如此,Walden 繼續(xù)認為,人工智能的新進展——尤其是大型語言模型 (LLM) 和生成模型——現(xiàn)在有望更好地實現(xiàn) Vitalik 10 年前預見的去中心化自治。
然而,隨著 DAO 實驗越來越多地采用人工智能代理,我們將在這里面臨新的影響和問題。下面,讓我們來看看 DAO 在將人工智能納入其方法時必須應對的五個關鍵領域。
轉變治理
在 Vitalik 最初的框架中,DAO 旨在通過在鏈上編碼治理規(guī)則來減少對分層人類決策的依賴。
最初,人類仍處于“邊緣”,但對于復雜的判斷仍然至關重要。在 Walden 描述的 DAO 2.0 世界中,人類仍然徘徊在邊緣——提供資本和戰(zhàn)略方向——但權力的中心逐漸不再是人類。
這種動態(tài)將重新定義許多 DAO 的治理。我們仍然會看到人類聯(lián)盟對結果進行談判和投票,但各種運營決策將越來越多地受到人工智能模型的學習模式的指導。目前,如何實現(xiàn)這種平衡是一個懸而未決的問題和設計空間。
最大限度地減少模型錯位
DAO 的早期愿景旨在通過透明、不可變的代碼來抵消人類偏見、腐敗和低效率。
現(xiàn)在,一個關鍵的挑戰(zhàn)是從不可靠的人類決策轉向確保人工智能代理與 DAO 的目標“保持一致”。這里的主要漏洞不再是人為勾結,而是模型失調:人工智能驅動的 DAO 針對偏離人類預期結果的指標或行為進行優(yōu)化的風險。
在 DAO 2.0 范式中,這種一致性問題(最初是人工智能安全圈中的哲學問題)變成了經(jīng)濟和治理方面的實際問題。
對于當今嘗試基本人工智能工具的 DAO 來說,這可能不是一個首要問題,但隨著人工智能模型變得更加先進并深入融入去中心化治理結構,預計它會成為審查和完善的主要領域。
新的攻擊面
想想最近的 Freysa 競賽,人類 p0pular.eth 欺騙 AI 代理 Freysa 誤解其“approveTransfer”功能,從而贏得 47,000 美元的以太獎金。
盡管Freysa?有內置的保護措施——明確指示永遠不要發(fā)送獎品——但人類的創(chuàng)造力最終超越了模型,利用提示和代碼邏輯之間的相互作用,直到人工智能釋放資金。
這個早期的競賽示例強調了,隨著 DAO 融入更復雜的人工智能模型,它們也將繼承新的攻擊面。正如 Vitalik 擔心 DO 或 DAO 被人類勾結一樣,現(xiàn)在 DAO 2.0 必須考慮對 AI 訓練數(shù)據(jù)或即時工程攻擊進行對抗性輸入。
操縱法學碩士的推理過程、為其提供誤導性的鏈上數(shù)據(jù)或巧妙地影響其參數(shù)可能會成為“治理接管”的新形式,其中戰(zhàn)場將從人類多數(shù)投票攻擊轉向更微妙和復雜的人工智能利用形式。
新的中心化問題
DAO 2.0 的演變將重要的權力轉移給那些創(chuàng)建、訓練和控制特定 DAO 底層人工智能模型的人,這種動態(tài)可能會導致新形式的中心化阻塞點。
當然,訓練和維護先進的人工智能模型需要專門的專業(yè)知識和基礎設施,因此在未來的一些組織中,我們將看到方向表面上掌握在社區(qū)手中,但實際上掌握在熟練專家手中。
這是可以理解的。但展望未來,追蹤 AI 實驗的 DAO 如何應對模型更新、參數(shù)調整和硬件配置等問題將會很有趣。
戰(zhàn)略與戰(zhàn)略運營角色和社區(qū)支持
Walden 的“戰(zhàn)略與運營”區(qū)別表明了一種長期平衡:人工智能可以處理日常 DAO 任務,而人類將提供戰(zhàn)略方向。
然而,隨著人工智能模型變得更加先進,它們也可能逐漸侵入 DAO 的戰(zhàn)略層。隨著時間的推移,“邊緣人”的角色可能會進一步縮小。
這就提出了一個問題:下一波人工智能驅動的 DAO 會發(fā)生什么,在許多情況下,人類可能只是提供資金并在一旁觀看?
在這種范式中,人類是否會在很大程度上成為影響力最小的可互換投資者,從共同擁有品牌的方式轉向更類似于人工智能管理的自主經(jīng)濟機器的方式?
我認為我們將在 DAO 場景中看到更多的組織模型趨勢,在這種模型中,人類只是扮演被動股東而不是主動管理者的角色。然而,由于對人類有意義的決策越來越少,而且在其他地方提供鏈上資本變得越來越容易,隨著時間的推移,維持社區(qū)的支持可能會成為一個持續(xù)的挑戰(zhàn)。
DAO 如何保持積極主動
好消息是,上述所有挑戰(zhàn)都可以積極應對。例如:
在治理方面——DAO 可以嘗試治理機制,為人類選民或人類專家輪流委員會保留某些具有高影響力的決策。
關于不一致——通過將一致性檢查視為一項經(jīng)常性運營費用(如安全審計),DAO 可以確保 AI 代理對公共目標的忠誠度不是一次性問題,而是一項持續(xù)的責任。
關于中心化——DAO 可以投資于社區(qū)成員更廣泛的技能建設。隨著時間的推移,這將減輕少數(shù)“人工智能奇才”控制治理的風險,并促進技術管理的去中心化方法。
關于支持——隨著人類成為更多 DAO 中的被動利益相關者,這些組織可以加倍努力講故事、共同使命和社區(qū)儀式,以超越資本配置的直接邏輯并保持長期支持。
無論接下來發(fā)生什么,很明顯這里的未來是廣闊的。
考慮一下 Vitalik 最近如何推出 Deep Funding,它不是 DAO 的努力,而是旨在利用人工智能和人類法官為以太坊開源開發(fā)開創(chuàng)一種新的融資機制。
這只是一項新實驗,但它凸顯了一個更廣泛的趨勢:人工智能和去中心化協(xié)作的交叉正在加速。隨著新機制的到來和成熟,我們可以預期 DAO 會越來越多地適應和擴展這些人工智能理念。這些創(chuàng)新將帶來獨特的挑戰(zhàn),因此現(xiàn)在是開始準備的時候了。






.png)





















