AI 初创公司 Anthropic 意外泄露的 51.2 万行源代码揭示了一个秘密项目,该项目将 Claude 从聊天机器人重新定位为持久且自主的智能体——这一战略转型直接挑战了谷歌等竞争对手主导的对话式 AI 模型。
“在企业中大规模采用业务关键型任务的最大障碍是建立足够的信任,”思科总裁兼首席产品官 Jeetu Patel 在最近的一次采访中表示,这凸显了智能体 AI 面临的核心挑战。
由于 .npmignore 文件配置错误导致的此次泄露,暴露了一个代号为“Conway”的项目 59.8MB 的源码映射,其中包括后台运行、webhook 触发和浏览器控制等功能。这与更广泛的行业趋势相吻合,思科最近的一项调查发现,虽然 85% 的企业正在试点 AI 智能体,但由于信任和安全顾虑,只有 5% 已将其投入生产。
“Conway”项目的泄露表明 Anthropic 正押注未来将超越拥挤的聊天机器人市场,创造基于智能体计算的新类别。这直接竞争于谷歌最近宣布的 Gemini 企业级智能体平台,并给整个 AI 行业施加了压力,迫使它们加速各自的智能体战略,将数十亿美元的潜在企业支出转向那些被信任能够执行任务而不仅仅是对话的平台。
新型 AI 的兴起
泄露的“Conway”代码揭示了从当今聊天机器人的请求-响应模型的根本转变。Conway 不再是等待提示的被动工具,而是被设计成一个始终在线的智能体,可以由外部事件触发,在后台运行任务,甚至控制 Chrome 浏览器等其他应用程序。泄露的内容还指向了一个带有新型 .cnw.zip 文件格式的扩展系统,这表明 Anthropic 正在为基于智能体软件的新生态系统构建平台。
这种向自主智能体的转变并非在真空中发生。谷歌最近公布了其全套工具——Gemini 企业级智能体平台,旨在帮助企业构建和部署自己的 AI 智能体。该平台包括智能体开发工具包(ADK)、低代码智能体设计器以及预构建智能体市场,显示出明确的企业导向。
信任赤字
尽管 AI 智能体技术正在迅速发展,但企业的采用却相对滞后。思科调查中发现的试点(85%)与生产(5%)之间 80 个百分点的差距,凸显了根深蒂固的“信任赤字”。智能体采取错误且不可逆转行动的风险是一个主要障碍。为了解决这个问题,思科等公司正在开发诸如 Defense Claw 之类的新安全框架,旨在为 AI 智能体提供护栏。
Anthropic、谷歌等公司面临的挑战将是说服企业,他们的智能体平台不仅功能强大,而且安全可靠。这将需要重新关注治理、监控和安全功能,以便为智能体工作流提供可见性和控制权。
投资视角
构建主导 AI 智能体平台的竞赛具有重要的投资影响。市场正在从根据模型智能定价公司转变为根据其将这种智能转化为自主行动的能力定价。Anthropic 的转型虽然风险巨大,但可能使其在这一新市场中获得先发优势。对于投资者而言,关键在于观察哪些公司能够解决“信任赤字”并释放智能体企业的巨大潜力。正如思科的 Patel 所指出的,安全、高效地生成 Token 的能力可能成为衡量成功的新货币。
本文仅供参考,不构成投资建议。