Appleが2019年から構想していたカメラ搭載のApple Watchの開発計画が正式に中止されたとBloombergが報じた。視覚的知能を活用する「Visual Intelligence」機能の実装を目指し、ディスプレイ内蔵型やクラウン周辺に配置する複数のカメラ案が検討されていたが、2027年までの登場という一部報道を前に撤回された形である。
一方でAppleは、代替として2026年発売を想定したスマートグラスやカメラ搭載AirPodsの開発を継続しており、AIとカメラによる周囲認識機能の展開先を他デバイスにシフトさせる構えだ。視覚データを活用するこの新技術は、既にiPhone 15 ProやiPhone 16シリーズに導入されており、AirPodsへの実装により、音声ナビやリアルタイム情報取得機能の拡張が見込まれている。
Apple Watchへのカメラ搭載計画が撤回された背景

Appleは2019年からApple Watchへのカメラ搭載を視野に入れた特許出願を進めており、バンド部分やデジタルクラウンへの内蔵案など複数のアプローチが模索されてきた。さらに2025年3月時点では「Visual Intelligence」機能を活用したカメラ搭載モデルが2027年までに登場するとの観測も浮上していたが、Bloombergの報道により正式に開発中止が伝えられた。対象はApple Watchの通常モデルとApple Watch Ultraの両方で、前面ディスプレイ内カメラや筐体側面の撮影モジュールが設計段階にあったとされている。
これにより、Apple Watchは少なくとも今後数年間はカメラ非搭載の方針が継続される見通しとなる。理由としては、デバイスのサイズ制約やバッテリー消費のバランス、視覚機能の活用ニーズの検証結果など複合的な要因が考えられる。腕時計という装着位置の特性上、カメラの活用場面が限定されやすいことも撤回の一因とみられる。一方でAppleはスマートグラスなど他のフォームファクタへの移行に可能性を見出しているとされ、視覚インターフェース戦略の転換点を迎えた形となる。
カメラ搭載AirPodsとスマートグラスが目指す次世代AI体験
Apple Watchのカメラ搭載を断念した一方で、Appleはカメラを備えたAirPodsやスマートグラスといった新たなデバイスの開発に注力している。特にAirPodsは、従来のオーディオ再生やノイズキャンセリングといった機能を超え、空間認識や視覚情報の取得といった次世代のインタラクションを担うデバイスとしての進化が期待されている。カメラを内蔵することで、ポケットの中にあるiPhoneと連携しながら周囲の情報を収集・分析し、音声やリアルタイム通知でユーザーの行動を支援することが視野に入る。
さらに、2026年の登場が報じられているスマートグラスもApple Intelligenceとの連携を前提とした設計が想定され、周辺環境を視覚的に把握し、ナビゲーションやAR情報の重畳表示といった応用が想定されている。これは、iPhone 15 ProやiPhone 16シリーズで既に実装されているVisual Intelligenceをさらに拡張するものであり、ユーザー体験を音声・視覚の両面から豊かにする構想の一端である。
AppleがAI専用デバイスではなく既存製品の拡張に注力する理由
2024年から2025年にかけて市場に登場したAI専用デバイスの多くが不発に終わったことが、Appleの判断に影響している可能性がある。Humane AI PinやRabbit R1といったコンパニオン型の新興デバイスは話題性を呼んだものの、日常的な使用においてiPhoneやMacBookと併用するメリットが薄く、結果的にユーザーに受け入れられなかった事例が目立つ。これに対しAppleは、AIを新規カテゴリに依存させるのではなく、iOSやAirPodsなど既存のプロダクトに自然な形で統合する方針を明確にしている。
これはユーザーの利便性や操作性を重視した判断と見られ、iOS 19ではApple独自のAIモデルをサードパーティにも開放することで、iPhone上での機能拡張が促進される可能性もある。さらにAirPodsではリアルタイム翻訳や音声インターフェースの高度化といった応用も視野に入る。物理的な専用AIデバイスよりも、既存端末にAI機能を溶け込ませるアプローチこそが、現時点でAppleが採る最も合理的な選択肢と言えるだろう。
Source:AppleInsider