总结
Near基金会正在开发AI“数字孪生”代表,以解决其去中心化自治组织(DAO)中投票参与度低的问题,旨在简化治理和决策流程。
- AI代表旨在学习用户偏好并代表DAO成员投票,将治理转化为一个即时的“数学问题”。
- 分阶段推出将从类似聊天机器人的顾问开始,逐步发展到独立的AI代表,同时保留关键决策中的人为因素。
- 市场影响包括提高效率和可扩展性的潜力,但也引发了对去中心化、安全性和法律责任的担忧。
Near基金会正在开发AI“数字孪生”代表,以解决其去中心化自治组织(DAO)中投票参与度低的问题,旨在简化治理和决策流程。
Near基金会正在开发人工智能(AI)“数字孪生”代表,以解决其去中心化自治组织(DAO)中持续存在的低投票参与度问题。这项倡议旨在简化治理流程,尽管它引入了关于去中心化和监督的新考量。
负责监督layer-1 Near协议的Near基金会正在实施AI驱动的代表,以代表DAO成员并为其投票。这一策略直接回应了平均DAO参与率通常在15%到25%之间的问题。这些低参与率可能导致权力集中、决策效率低下,并增加治理攻击的脆弱性。
据Near基金会专门研究AI和治理的研究员Lane Rettig称,AI“数字孪生”将通过访谈、投票历史分析以及监控Telegram和Discord等社交媒体平台来学习用户偏好。目标是使这些AI代理能够按照其指定用户的意愿行事和投票,将治理转化为一个“几乎可以即时发生”的过程。
该系统的推出计划分阶段进行。它将从类似聊天机器人的顾问开始,逐步发展到独立的AI代表。正如Rettig所阐述的,长期愿景可能涉及“用数字孪生取代所有人类参与者……以解决这种投票冷漠、参与度的问题”。然而,基金会强调,对于资金分配或战略调整等关键决策,仍需“人为干预”。该系统将整合可验证的模型训练,以确保与用户价值观保持一致并增强安全性。
AI代表的引入可以显著提高Near协议DAO的效率和可扩展性。通过基于学习到的偏好自动投票,它旨在减轻低参与度带来的风险,包括一小部分代币持有者可能在不被注意的情况下通过有害提案的治理攻击。如果成功,这种模式可以为更广泛的Web3生态系统中的其他DAO建立AI驱动治理的先例,从而可能改变决策范式。
反之,这种方法引发了关于真正去中心化和人类监督作用的疑问。在治理中部署AI引入了新的风险,例如AI代理可能犯下严重错误或被破坏,导致意想不到的结果。此外,将AI整合到去中心化系统中带来了新的法律和监管挑战,特别是在责任、偏见、透明度和数据保护方面。欧盟等监管机构正开始提出解决AI责任的框架,这可能对此类自治系统产生深远影响。
Near基金会的Lane Rettig强调了AI代表作为解决投票冷漠问题的“最终目标愿景”。然而,他也强调了在重大决策中人类参与的必要性。Rettig表示:“我认为,在某些类别的事务中,你肯定会希望由人类做出最终决定,扣动扳机。”这一观点承认了当前AI系统的固有局限性,尽管它们很复杂,但它们基于概率推理运行,并且在没有人为有意输入的情况下,可能产生通用、有偏见或不准确的结果。
更广泛的AI和区块链融合讨论中的评论强调,“没有人为的有意输入,这些系统就不会进化——它们会漂移。”这表明,一个面向未来的AI-区块链生态系统需要在系统内部有意地放置人类。这包括诸如用于AI生成的治理提案的人类辩论、人类审查**大型语言模型(LLM)**生成的智能合约以及人类验证者审计链上AI决策的机制。
AI和Web3技术的融合正在重塑各个领域的决策,包括金融服务和供应链。Web3提供去中心化、无需信任的交互,而AI则提供效率和数据驱动的洞察。然而,这种整合导致了新的法律复杂性。例如,在没有集中监督的情况下,为自主AI系统造成的经济损失、数据滥用或有偏见的结果分配责任变得具有挑战性。许多AI模型的不透明性进一步使决策背后的理由复杂化,引发了合规性和道德担忧。
AI代理已在加密领域广泛应用,用于构建Web3应用程序、发行代币并与协议自主交互。Near基金会的倡议体现了利用AI解决去中心化系统中固有挑战的日益增长的趋势,同时也在不断发展的监管审查和自主技术的伦理考量中航行。将AI整合到Web3中的组织必须开发稳健的治理框架、进行定期审计并保持适当的人类监督,以有效管理风险。