アップル(Apple Inc.)は、カメラを搭載した次世代AirPodsの開発最終段階に入っています。これは、iPhoneを超えたAIネイティブなハードウェアを創出するという同社の戦略における大きな一歩です。関係者によると、約4年前から開発が進められてきたこのプロジェクトは、現在、量産前の最終的な主要フェーズである設計検証テスト(DVT)に入ったとのことです。
このデバイスについて報じてきたブルームバーグのマーク・ガーマン記者は、「プロジェクトは現在、プロトタイプが最終的なデザインと機能に近づいている段階にある」と述べています。これは、各イヤホンにカメラを備えたハードウェアがほぼ完成していることを示唆していますが、最終的な発売時期は依然としてソフトウェアの性能に左右されます。
新型AirPodsは、現在のProモデルに似ているものの、新しいコンポーネントを収容するためにステム(軸)が長くなる可能性がありますが、写真撮影用には設計されていません。代わりに、低解像度のカメラがSiriの「目」として機能し、AIシステムで処理される視覚情報を取り込むことを目的としています。これにより、ユーザーは周囲の状況について質問できるようになります。例えば、冷蔵庫の中の食材を見て夕食のレシピを尋ねるといった具合です。プライバシーへの懸念に配慮し、視覚データを取得中であることを示す小さなLEDライトが搭載されると報じられています。
この製品は、アップル、そしてプロジェクトを強力に推進しているとされる次期CEO候補のジョン・ターナス氏にとって大きな賭けとなります。成功すれば、アップルにとって新しいウェアラブルカテゴリーが開拓され、新たな収益源が創出されるとともに、急成長するAIハードウェア市場における足がかりとなります。しかし失敗すれば、自動車プロジェクトの中止やVision Proのニッチな市場地位に続き、iPhone後のハードウェア展開においてさらなる後退となる可能性があります。
スパイカメラではなく「Siriの目」
カメラ搭載AirPodsの核となる機能は、Siriに環境認識と視覚認識を与えることであり、アップルはこの機能を「ビジュアル・インテリジェンス」と呼んでいます。このハンズフリー機能は、GoogleのGemini Liveにあるカメラ共有機能に似ています。想定される用途としては、Siriが視界にあるランドマークに基づいて道案内を提供したり、カメラに映った物体に基づいてリマインダーを送信したりすることなどが挙げられます。
このアプローチは、音声のみのアシスタントの大きな限界に直接対処するものです。しかし、Google GlassからMetaのRay-Banまで、カメラ搭載ウェアラブルを悩ませてきたプライバシーの問題も浮上します。アップルが提案する解決策は小さなLEDインジケーターライトですが、小さなイヤホン上での視認性は依然として実用上の懸念事項です。なお、このデバイスはジェスチャー操作には対応せず、Vision Proヘッドセットとは差別化されます。
アップルのウェアラブルAI戦略
カメラ搭載AirPodsは、アップルのAI中心の新しいウェアラブル製品群の中で最も開発が進んでおり、MetaやOpenAIといった競合他社に対抗するための広範な戦略的推進を象徴しています。MetaはすでにRay-Banスマートグラスで一定の成功を収めており、OpenAIもハードウェアプロジェクトを模索していると報じられています。
初期開発段階にあると噂される他のアップル製デバイスには、Humane AI Pinに似たクリップ式の「ペンダント」や、より高度なスマートグラスが含まれます。AirTagサイズのアクセサリーとされるペンダントは、ディスプレイのないiPhoneのコンパニオンとして機能します。2026年または2027年に発売される可能性があるスマートグラスは、Metaの製品と同様にカメラとスピーカーを統合する見込みです。これらの将来製品の成功は、GoogleのGeminiの技術で強化されたとされる刷新版Siriが、発売時にどのように受け入れられるかにかかっているかもしれません。
投資家にとって、新型AirPodsは新体制下におけるアップルのイノベーションエンジンの重要な試金石となります。製品の成功は保証されておらず、AIソフトウェアの実行力に大きく依存しますが、アップルのエコシステムがiPhoneをはるかに超えて広がる未来を予見させるものです。ハードウェアはほぼ準備が整っていますが、ソフトウェア開発の遅れにより、当初2025年に予定されていた発売が2026年以降にずれ込む可能性も依然として残っています。
本記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。