ここ2ヶ月で2組目となるグループが、Anthropicの高リスクAIモデルのセキュリティを回避したと主張しており、同社の最も強力なツールを保護する能力に疑問が投げかけられています。
戻る
ここ2ヶ月で2組目となるグループが、Anthropicの高リスクAIモデルのセキュリティを回避したと主張しており、同社の最も強力なツールを保護する能力に疑問が投げかけられています。

ハッカー集団のShinyHuntersは、AIセーフティのリーダーであるAnthropicの内部システムに侵入し、未発表の「Claude Mythos」モデルに関連するデータにアクセスしたと主張しています。この未確認の主張は、7月に別のDiscordグループが同じ高リスクモデルへのアクセス権を得た事案に続くものです。
Anthropicは、ShinyHuntersによる侵入の主張をまだ公に認めていません。ブルームバーグの報道によると、同社は以前、7月の事案について「主張を認識しており、調査中である」と述べていました。
ShinyHuntersは、ユーザー管理パネルや内部のAI実験のスクリーンショットを共有したとされています。これは、ユーザーがモデルのオンライン上の場所を推測し、請負業者の特権アクセスを利用した7月の侵入事案に続くものです。AnthropicはClaude Mythosについて、「あらゆる主要なオペレーティングシステムにおけるゼロデイ脆弱性を特定し、それを悪用する」能力があると説明していました。
今回の新たな主張が事実であれば、繰り返されるセキュリティ上の不手際は、安全重視のAI研究ラボとしてのAnthropicの評判を著しく傷つけ、Googleなどの企業顧客やパートナーからの信頼を損なう可能性があります。各社がますます強力なモデルの開発を競い合う中、これらの事案はAI業界全体のセキュリティプロトコルに対して重大な疑問を投げかけています。
ShinyHuntersによる主張は、Anthropicが「潜在的に危険」と呼ぶAIに権限のないユーザーがアクセスしたとされる、ここ数週間で2度目の事例となります。7月初旬、ソーシャルプラットフォームのDiscord上のグループが、巧妙な攻撃ではなく、同社の命名規則に基づいてオンライン上の場所を推測することでMythosへのアクセスに成功しました。
その以前の侵入は、Anthropicの請負業者として特権アクセスを持っていたグループメンバーの協力によって行われました。ユーザーたちはブルームバーグに対し、無害なタスクにモデルを使用していたと語りましたが、この事案は重大なセキュリティの脆弱性を露呈させました。安全性と責任あるAI開発をブランドの柱としている企業にとって、最も強力なモデルに対する2度の侵入疑惑が立て続けに発生したことは、投資家や顧客にとって深刻な懸念事項です。
AnthropicはClaude Mythosを厳重に管理しており、「Project Glasswing」と呼ばれる取り組みを通じて、選ばれた一部のパートナーにのみアクセスを許可してきました。未知のソフトウェア脆弱性を見つけ出し利用できるという、同社によるモデル能力の説明は、このモデルを独自の法的リスクカテゴリーに分類させています。OpenAIやGoogleなどの競合他社も強力なモデルを開発していますが、Anthropicの公的な強調点は一貫して、高度なAIの潜在的な危険性を封じ込めることに置かれてきました。
今回の侵入疑惑は、同社自身の運用セキュリティが、その崇高な安全原則に見合っていない可能性を示唆しています。もしShinyHuntersのようなグループが内部ダッシュボードにアクセスできるのであれば、モデルの盗難やAnthropicのパートナーからの機密データ流出の可能性が生じます。これらの事案は、AIモデルが強力になるにつれ、それを構築する企業がより価値の高い標的になるという厳しい現実を思い知らされるものです。
この記事は情報提供のみを目的としており、投資助言を構成するものではありません。