Key Takeaways:
- 美国财政部长斯科特·贝森特(Scott Bessent)和美联储主席杰罗姆·鲍威尔(Jerome Powell)与银行首席执行官举行紧急会议,讨论 Anthropic 新 AI 模型带来的网络风险。
- 此次会议标志着监管机构对金融行业内采用 AI 的审查显著升级,重点关注潜在的系统性风险。
- 这一预警可能导致大型美国银行的合规成本增加,并在部署新型 AI 技术时采取更加谨慎的态度。
Key Takeaways:

美国顶级金融监管机构已向该国最大的银行发出直接警告,标志着对金融系统中人工智能集成的监管进入了加强审查的新阶段。
美国财政部长斯科特·贝森特(Scott Bessent)和美联储主席杰罗姆·鲍威尔(Jerome Powell)周二与银行高管召开了紧急会议,就 Anthropic 最新 AI 模型可能带来的系统性风险发出警告。此举可能会放缓该行业采用 AI 的步伐。据彭博社报道,4 月 9 日的这次会议标志着财政部和美联储负责人首次就商业 AI 模型的特定风险共同进行干预。
一位熟悉会议情况的消息人士表示:“单一广泛使用的模型可能引发关联性故障或突发风险,这是一种全新的系统性风险载体,需要我们立即关注。”
虽然会议未披露 Anthropic 新模型在银行业采用的具体指标,但监管机构的先发制人行动表明了其高度担忧。此次警告背景是各银行正积极探索利用 AI 提高效率,仅摩根大通(JPM)每年在技术上的支出就超过 150 亿美元。金融行业对第三方技术供应商的暴露早已是监管重点,而此次会议将这一关注延伸到了底层 AI 模型。
核心问题在于,单一 AI 模型的快速广泛采用是否会创造一种新型的系统性风险,即模型中的缺陷或预见之外的行为可能同时影响多家大型金融机构。这可能导致连锁反应式的失败。预计监管机构将在未来六个月内发布关于 AI 模型风险管理的正式指南,可能要求银行实现 AI 供应商多样化,并证明模型的韧性。
这次计划外会议强调了金融业对人工智能监管审查的显著升级。与以往关于网络安全或第三方供应商管理的指南不同,此次干预针对的是技术本身。对 Anthropic(一家由大型科技和金融公司支持的领先 AI 开发商)特定模型的关注,突显了监管机构的担忧:同质化的 AI 生态系统可能会在整个银行体系中引入单点故障。
金融机构一直是机器学习的早期且热衷的采用者,将其应用于从欺诈检测到算法交易及贷款审批的各个领域。然而,最新一代大型语言模型(LLMs)的复杂性和“黑箱”属性带来了新挑战。监管机构担心,银行可能缺乏内部专业知识来全面审查这些模型,以发现潜在偏见、安全漏洞,或在市场危机期间可能出现的非预期顺周期行为。
贝森特和鲍威尔的警告可能会引发一波内部审查,并可能减缓美国银行部署尖端 AI 的速度。风险管理总监们现在将面临压力,需向监管机构证明其实际拥有测试、验证和监控第三方 AI 模型的稳健框架。这几乎肯定会增加合规成本,并可能迫使银行在战略上从依赖单一主导模型提供商转向更加多样化的多供应商模式,以减轻集中风险。
本文仅供参考,不构成投资建议。