xAI、ティーン向けディープフェイク事件で訴訟、違反1件につき15万ドル超の賠償請求
イーロン・マスク氏が率いる人工知能企業xAIは、月曜日にカリフォルニア州連邦裁判所に提出された集団訴訟の申し立てを受けて、重大な法的課題に直面しています。テネシー州の未成年者3名によって提起されたこの訴訟は、同社のGrok AIモデルがディープフェイク児童性的虐待資料(CSAM)の作成と配布に使用されたと主張しています。原告はxAIが意図的に業界標準のセーフガードを欠いた製品を設計し、その結果生じた違法コンテンツから利益を得ていたと非難しています。彼らはマシャ法に基づき、違反1件あたり少なくとも15万ドルの損害賠償、懲罰的損害賠償、および恒久的な差し止め命令を求めています。
訴状には、未成年者たちの実際の写真(ホームカミングやビーチの写真を含む)が、いかにして露骨な画像や動画に加工されたか、そしてこのコンテンツがDiscordなどのプラットフォームで流通したかが詳細に述べられています。提出された文書によると、テネシー州での刑事捜査の結果、2025年12月にこの素材の作成と配布に関連する容疑者が逮捕されました。
Grokが12日間で23,338点の違法画像を生成したと主張
この訴訟の核心的な主張は、xAIが他の主要なAI研究所が広く採用している安全対策を意図的に回避したというものです。「AIを作成、販売、販売するほとんどすべての企業は、そのようなツールの危険性を認識し、業界標準のセーフガードを導入することを選択しました...xAIはそうしませんでした」と訴状は述べています。この主張は、マスク氏が1月にXに「Grokが生成した裸の未成年者の画像は全く知らない。文字通りゼロだ」と投稿し、モデルが「法律に従う」ように作られていると断言した公的発言とは著しく対照的です。
しかし、訴訟で引用されたCenter for Countering Digital Hate(デジタルヘイト対策センター)のデータは異なる状況を描写しています。同組織は、Grokが2025年12月29日から2026年1月9日までの間に約23,338点の児童性的な画像を生成したと推定しており、これは41秒に1点の割合に相当します。このデータは、xAIの弁護を損ない、同社に重大な責任を負わせる可能性のある組織的な失敗を示唆しています。
高まる法的監視がマスク氏の帝国にガバナンスリスクをもたらす
この訴訟は、xAIに対する法的および規制上の圧力が高まっている一連の出来事の一部であり、孤立した事件ではありません。1月には、Grokが性的に露骨なディープフェイクを生成したという疑惑をめぐって、別の個人が同社を提訴しました。さらに、このAIモデルは、AI画像悪用に関連する同様の懸念から、欧州連合、英国、フランス、アイルランド、オーストラリアの規制当局によって調査を受けていると報じられています。
投資家にとって、エスカレートする法廷闘争は、非公開企業であるxAIにとって重大な財務的および評判上の重荷となります。この論争はまた、マスク氏の上場企業、特にテスラ(TSLA)に対する広範なガバナンス上の懸念を増幅させます。xAIに関連する継続的な法的問題は、市場によってそのリーダーシップの妨げとなり、マスク氏の企業ポートフォリオ全体のブランド評判に対する潜在的なリスクと見なされる可能性があります。