米金融規制当局のトップは、国内最大手銀行に対し直接的な警告を発し、金融システムへの人工知能(AI)統合に対する監視が強化される新たな段階に入ったことを示唆した。
スコット・ベセント米財務長官とジェローム・パウエル米連邦準備制度理事会(FRB)議長は火曜日、銀行幹部との緊急会合を招集し、Anthropic社の最新AIモデルがもたらすシステムリスクについて警告した。この動きは、同セクターにおけるAI導入にブレーキをかける可能性がある。ブルームバーグが報じた4月9日の会合は、財務省とFRBのトップが商用AIモデルの特定のリスクについて共同で介入した初めてのケースとなる。
「広く使用されている単一のモデルから生じる相関的な失敗や創発的なリスクの可能性は、即座の注意を要する新たなシステムリスクのベクトルである」と、会合に詳しい関係者は述べた。
銀行セクター内での新しいAnthropicモデルの採用に関する具体的な指標は開示されていないが、規制当局による先制的な行動は懸念の高さを示唆している。この警告は、JPモルガン・チェース(JPM)だけでもテクノロジーに年間150億ドル以上を投じるなど、銀行が効率改善のためにAIを積極的に模索している中で発せられた。金融セクターのサードパーティ・テクノロジー・ベンダーへの露出はすでに規制の主要な焦点となっているが、今回の会合はその懸念を基盤AIモデルへと広げた形だ。
争点の核心は、単一のAIモデルが急速かつ広範に採用されることで、モデルの欠陥や予期せぬ挙動が複数の主要金融機関に同時に影響を及ぼし、連鎖的な破綻につながるという、新しい形のシステムリスクが生じるかどうかである。規制当局は今後6か月以内にAIモデルのリスク管理に関する正式なガイダンスを発表する見通しで、銀行に対してAIベンダーの多様化やモデルの回復力の証明を求める可能性がある。
この予定外の会合は、金融業界におけるAIの規制監視が大幅にエスカレートしたことを裏付けている。サイバーセキュリティやサードパーティ・ベンダー管理に関する従来のガイダンスとは異なり、今回の介入は基盤技術そのものを対象としている。大手テック企業や金融機関が支援する主要AI開発企業であるAnthropic社の特定のモデルに焦点が当てられたことは、均一なAIエコシステムが銀行システム全体に単一障害点を導入しかねないという懸念を浮き彫りにしている。
金融機関は、不正検知からアルゴリズム取引、融資審査に至るまで、あらゆる分野で機械学習を早期かつ熱心に導入してきた。しかし、最新世代の大規模言語モデル(LLM)の複雑さと「ブラックボックス」的な性質は、これまでにない課題を提示している。規制当局は、銀行側に、隠れたバイアスやセキュリティの脆弱性、あるいは市場危機時の予期せぬプロシクリカル(景気順応的)な挙動について、これらのモデルを完全に精査するための内部専門知識が不足しているのではないかと懸念している。
ベセント氏とパウエル氏による警告は、内部的な見直しの波を引き起こす可能性が高く、米銀内での最先端AIの導入を遅らせる可能性がある。チーフ・リスク・オフィサー(CRO)は今後、サードパーティ製AIモデルをテスト、検証、監視するための強固な枠組みを自社が備えていることを規制当局に示すよう迫られることになる。これにより、コンプライアンスコストの増大はほぼ確実となり、集中リスクを軽減するために、単一の支配的なモデルプロバイダーへの依存から、より多様なマルチベンダー・アプローチへと戦略的な転換を余儀なくされる可能性がある。
この記事は情報提供のみを目的としており、投資助言を構成するものではありません。