Appleが2026年末までの投入を目指すスマートグラスの開発を加速していると、BloombergのMark Gurman氏が報じた。この製品は、Apple IntelligenceとSiriを中核に据え、カメラやマイク、スピーカーなどを搭載し、リアルタイム翻訳や音楽再生といった機能を視野に入れている。開発はVision Products Groupが担い、独自チップの設計も進行中で、2025年中の発表が見込まれている。

背景には、OpenAIとジョニー・アイブによる「AIのiPhone」構想の進展があり、Appleはその影響を意識しているとされる。一方、AR表示機能の実装は時期尚早との見方もあり、最初の製品には含まれない可能性が高い。Appleが描く“眼に映るAI”の未来が、いよいよ具体的に動き始めた。

Apple Intelligenceと連携するスマートグラスの機能概要と開発体制

2026年末までの発売を目指し、Appleはスマートグラスのプロトタイプ開発を年内に開始する見通しである。搭載予定の機能には、カメラ、マイク、スピーカーが含まれ、音声操作による通話対応や音楽再生、リアルタイム翻訳など、SiriおよびApple Intelligenceと連動したAI機能が中核となる。表示機能に関しては、AR技術を通じてレンズ上に情報を投影する構想が存在するが、初期段階での搭載は未定とされている。

開発はApple Vision Proを手がけたVision Products Groupが主導しており、このチームは現在、専用チップの設計も進行させているという。これにより、眼鏡型という制約の中でもパフォーマンスと省電力性を両立させることを狙っている。さらに、Apple Intelligenceが本格展開されるとされるiOS 19のアップデートと同時期に連携強化が図られる見込みである。

既存のMeta Ray-BanやGoogleのAndroid XRといった競合製品との差別化を狙う姿勢も見受けられる。Appleが得意とするハードとソフトの一体設計によって、日常的なウェアラブルAI体験を自然な形で提供することが期待されている。

ジョニー・アイブ×OpenAI連合とAppleの動きが示す“次のインターフェース戦争”

元Appleのチーフデザインオフィサーであるジョニー・アイブと、OpenAIのサム・アルトマンが関与する新たなAIデバイス構想は、「AIのiPhone」とも形容される存在として注目されている。この動きがApple内部に刺激を与えているとの見方が報じられており、スマートグラスの開発加速にも影響している可能性がある。特にAppleが焦点を当てるのは、AIを通じて自然に情報を扱う新たなユーザー体験である。

Appleがグラスに注力する背景には、音声AIの競争力向上が必須であるという課題がある。現状、Siriの進化は後れをとっており、Appleはその改善に向けて第三者の大規模言語モデル(LLM)の統合を始めている。すでにChatGPTのSiri統合が進行しており、エコシステムの“壁”を一部解放しながら柔軟性を持たせ始めた。

音声AIとウェアラブルデバイスが融合する中、スマートフォン以来の新しいインターフェースが生まれる兆しもある。Appleがこの領域で再び市場をリードできるかどうかは、AIとハードウェアの統合力にかかっていると言える。今後のiOSアップデートやVision Products Groupの技術力がその成否を左右する。

Source:Tom’s Guide