新しい研究によると、失業を予測するAIモデル自体がどの職種が対象になるかについて合意できず、最大25%の確率で意見が食い違っていることが明らかになりました。
戻る
新しい研究によると、失業を予測するAIモデル自体がどの職種が対象になるかについて合意できず、最大25%の確率で意見が食い違っていることが明らかになりました。

新しい研究によると、失業を予測するAIモデル自体がどの職種が対象になるかについて合意できず、最大25%の確率で意見が食い違っていることが明らかになりました。
世界をリードする人工知能モデルが、どの仕事が自動化に最もさらされているかについて、多様でしばしば矛盾する予測を出していることが新しい研究で判明しました。これはAI主導の経済予測の信頼性に疑問を投げかけるものです。全米経済研究所(NBER)から発表されたワーキングペーパーは、政策立案者や労働者双方にとって喫緊の懸念となっているこの分野の不確実性を浮き彫りにしており、主要3モデル間での雇用リスクに関する意見の相違を示しています。
「私個人としては、一つの指標だけで『ああ、仕事を変えるべきだ』とか『子供の専攻を変えさせるべきだ』と判断することはありません」と、研究の著者の一人であるノースウェスタン大学のミシェル・イン(Michelle Yin)氏は述べています。この研究は、AIが自らの影響を予測するために使用されているものの、その結果は一貫性からほど遠いことを示唆しており、これらの予測を鵜呑みにしないよう注意を促しています。
イン氏、ノースウェスタン大学のホア・ヴー(Hoa Vu)氏、アメリカン大学のクローディア・ペルシコ(Claudia Persico)氏の共著によるこの研究は、OpenAIのChatGPT-5、Google DeepmindのGemini 2.5、AnthropicのClaude 4.5という3つの主要AIモデルによる職業別暴露ランクを調査しました。例えば、Claudeは会計士をAIに対して非常に脆弱であると評価した一方で、Geminiはそれよりもはるかに低いリスクを割り当てました。また、広告マネージャーや最高経営責任者(CEO)などの職種の脆弱性についてもモデル間で意見が分かれました。
これらの調査結果は、戦略的な人員計画のためにAIが生成した「暴露スコア」に依存している投資家や企業にとって課題となります。ChatGPTとGeminiの意見が約4分の1の確率で食い違っていることから、現在の世代のAIは、将来の破壊に対する客観的な見方を提供するのではなく、導入における既存のバイアスを反映している可能性があると研究は示唆しています。
研究の核心は、労働省のデータベースから抽出したタスクをAIモデルに与え、どれを実行できるかを確認することでした。経済学者たちは、モデル間の一致レベルが驚くほど低いことを発見しました。ChatGPTとGeminiが最も一致していましたが、それでもかなりの部分の職業について異なる評価を下しました。
この乖離は極めて重要です。なぜなら、これらの暴露スコアは、労働訓練や支援に関する決定を導くためのコンサルティング白書、リサーチノート、政策報告書でますます使用されているからです。研究では、こうした差異の一部はモデルの学習データに起因する可能性があると仮定しています。金融分析などの分野のアーリーアダプターは、AI関連のデータをより多く生成し、それが結果としてモデルにそれらの専門職をより暴露されているとランク付けさせる可能性があるというのです。
これらAI生成スコアの信頼性の低さは、重大な意味を持ちます。離職した労働者のための支援システムを設計しようとしている政策立案者や、学生に「AIに強い」キャリアをアドバイスしている教育機関は、欠陥のあるデータに基づいて行動している可能性があります。経済学者たちは、単一のAIモデルに頼るのではなく、研究者は多様なモデルを横断的に調査し、予測の不確実性についてより透明性を高めるべきだと提案しています。
投資家にとって、この研究は、単純なAIによる乗っ取り論に基づいてセクター全体の賭けを行うことへの警告となります。AIモデル間の合意の欠如は、労働市場への現実世界の影響が、多くの報告書が示唆するよりも微妙で予測が困難であることを示唆しています。特定の仕事の真の暴露度は、モデルの理論的な能力よりも、AIが経済全体で実際にどのように実装されるかにかかっています。そのプロセスには、より強固な調査とヒューマン・イン・ザ・ループ(human-in-the-loop)分析が必要です。
本記事は情報提供のみを目的としており、投資助言を構成するものではありません。