Anthropicは、セキュリティ上の欠陥を特定するために特別に設計された新しいAIモデルを、世界のトップテクノロジー企業約40社に提供し、企業のサイバー防衛における人工知能の活用を強化しています。
戻る
Anthropicは、セキュリティ上の欠陥を特定するために特別に設計された新しいAIモデルを、世界のトップテクノロジー企業約40社に提供し、企業のサイバー防衛における人工知能の活用を強化しています。

(P1) Anthropicは4月7日、ソフトウェアの脆弱性特定に優れたAIシステムである「Claude Mythos Preview」モデルの限定プレビューを、選定された約40社の企業グループに公開したと発表しました。このグループには、テクノロジー大手のMicrosoft、Amazon、Appleのほか、サイバーセキュリティのリーダーであるCrowdStrikeやPalo Alto Networksが含まれており、これらの企業は防御的なセキュリティ業務に同モデルを活用する予定です。
(P2) この動きは、AIによる攻撃を防ぐにはAIを活用したツールが必要であるという、広がりつつある共通認識を反映しています。「これはサイバー環境において、かつてない最大の変化です」と、Google Cloudの最高執行責任者兼セキュリティ製品担当プレジデントであるフランシス・デスーザ氏は、最近のニューヨーク・タイムズ紙のインタビューで語りました。「AIにはAIで対抗しなければなりません」
(P3) Claude Mythos Previewの初期ユーザー層は、世界のテクノロジー・インフラとセキュリティ機構の重要な集中拠点を代表しています。Microsoft、Amazon、Appleといった企業にこのツールを提供することで、Anthropicは、高度な攻撃者の標的となりやすいエコシステムの中心に、新しい防御モデルを配置しています。
(P4) この取り組みは、高度なAIが攻撃と防御の両方に利用できるという「デュアルユース(両義性)」の性質を浮き彫りにしています。脅威主体が悪意のある目的でAIサービスを悪用するケースが増える中、Mythosのような特化型の防御モデルの開発は、セキュリティ維持のために極めて重要になっており、これらの次世代ツールを備えたサイバーセキュリティ企業の価値を高める可能性があります。
Mythosのリリースは、攻撃者が攻撃を画策するために合法的な商用AIモデルを悪用する、いわゆる「AIの現地調達(living off the AI land)」が増加している中で行われました。CSO Onlineの最近の報告によると、セキュリティ研究者は、脅威主体がAnthropic自社のClaudeモデルをサイバースパイ活動に使用したり、OpenAIのAssistants APIを悪用して隠密なコマンド&コントロール(C2)チャネルを作成したりした事例を記録しています。これらの手法により、悪意のある通信を通常のAI活動にカモフラージュし、従来のセキュリティ制御を回避することが可能になります。
AnthropicのMythos戦略は、この進化する脅威への直接的な回答であり、攻撃者が悪用しようと競っているのと同じ種類の欠陥を、防御側が先制して発見・修正するための専用ツールを提供します。このモデルは、セキュリティ研究者の作業を自動化・加速させるように設計されており、ハッカーがシステムを突破するよりも早く、システムを保護できるようにします。
初期のロールアウトを審査済みの40社に限定するというAnthropicの決定は、このような強力なツールが本来備えているリスクを強調するものです。セキュリティの弱点を発見することに極めて長けたAIは、誤った手に渡れば武器になりかねません。この管理されたリリースにより、同社は悪用の可能性を最小限に抑えつつ、現実世界の防御シナリオにおけるパフォーマンス・データを収集することができます。
投資家にとって、この進展はサイバーセキュリティ関連株にプラスの影響を与える可能性があります。初期アクセス・グループに含まれるCrowdStrikeやPalo Alto Networksなどの企業は、防御能力を強化し、プラットフォームの有効性を高めて競争優位性を生み出す立場にあります。市場はセキュリティ分野へのAI適用の可能性を強気(ブル)に見ており、Mythosのようなモデルの導入が成功すれば、AIネイティブなセキュリティ・プラットフォームが既存のベンダーを凌駕するという理論が補強される可能性があります。
この記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。