AIの導入が加速する中、Datadogの新しいレポートは、モデルのインテリジェンスではなく運用の複雑さが、大規模で信頼性の高いAIを実現する上での主要な障壁であることを明らかにしました。
戻る
AIの導入が加速する中、Datadogの新しいレポートは、モデルのインテリジェンスではなく運用の複雑さが、大規模で信頼性の高いAIを実現する上での主要な障壁であることを明らかにしました。

Datadog Inc.の新しいレポートによると、現在10社中約7社が3つ以上のモデルを使用しており、運用の複雑さが人工知能(AI)を拡張する上での主要な障害になりつつあります。
Datadogの最高製品責任者(CPO)であるYanbing Li氏は、「勝利する企業は、単により優れたモデルを構築するだけでなく、それらを中心に運用コントロールを構築するでしょう。この新しい時代において、AIのオブザーバビリティ(可観測性)は、10年前のクラウドのオブザーバビリティと同様に不可欠なものになります」と述べています。
「2026年AIエンジニアリングの現状」レポートでは、本番環境におけるAIモデルへのリクエストの約5%が失敗しており、その失敗の約60%がシステム容量の制限に起因していることが明らかになりました。これは、故障のポイントがAIモデル自体ではなくインフラにあるという、深刻化する課題を浮き彫りにしており、AI搭載アプリケーションの速度低下や体験の分断を招いています。
この調査結果は、AI業界における重要な転換を示唆しており、投資と戦略の軸足が純粋なモデル開発からMLOpsやオブザーバビリティ・プラットフォームへと移る可能性があります。AIの導入を急ぐ企業にとって、基盤となるインフラの信頼性は、アルゴリズムの洗練度よりも重要な競争上の差別化要因になる可能性があります。
この課題は、サーバーを所有することから、大規模な複雑さと信頼性を管理することへと焦点が移ったクラウドコンピューティングの初期を彷彿とさせます。競争上のプレッシャーから、スタートアップ企業も大企業もAIの導入を加速させていますが、このスピードは運用のコントロールが伴わない場合、リスクを生み出します。
VercelのCEOであるGuillermo Rauch氏は、「エージェントの失敗の次の波は、エージェントに何ができないかではなく、チームが何を観察できないかについてになるでしょう。従来のソフトウェアとは異なり、エージェントはLLM自体によって駆動される制御フローを持っているため、オブザーバビリティは単に有用なだけでなく、不可欠なものとなります」と述べています。
この見解は業界全体で共鳴しています。Riverbedによる別の調査では、ヘルスケア分野のリーダーの91%がAIOpsの投資対効果(ROI)が期待を上回ったと報告している一方で、AI戦略を完全に運用する準備ができている組織はわずか31%にとどまり、データ品質が最大の懸念事項となっています。
運用準備への注目は、AI市場の成熟を物語っています。スタンフォードHAIなどの機関のレポートが、AIに関する意見や性能における「大きな乖離」を指摘する一方で、現場のエンジニアにとっての現実は、ますます断片化し複雑化するシステムの管理です。数千社の顧客からの匿名データを分析したDatadogのレポートは、本番環境へのAI導入の道が運用のハードルで舗装されていることを示しています。
「確信を持ってAIを拡張するために、組織はGPUの利用率からモデルの挙動、エージェントのワークフローに至るまで、スタック全体にわたるリアルタイムの可視性を必要としています」とDatadogのLi氏は付け加えました。「大規模環境では、どのモデルを選ぶかよりも、どのようにAIを運用するかが重要になるかもしれません」
この運用優先のマインドセットは、繰り返されるテーマになりつつあります。米一般調達局(GSA)の「100万時間チャレンジ」は反復的なワークフローの自動化を目指しており、SymphonyAIやCatapultなどの企業による新しいプラットフォームは、初期段階から複雑さを管理するために、AIを組み込んだ運用ダッシュボードを備えて構築されています。コンセンサスは明確です。AIがより強力になるにつれ、それを管理するシステムもよりインテリジェントにならなければなりません。
この記事は情報提供のみを目的としており、投資アドバイスを構成するものではありません。