Googleは、Geminiの新機能をAndroid端末の一部で展開開始した。Project Astraを基盤とし、カメラや画面共有を通じてリアルタイムに現実世界と対話できるこの機能は、Google One AI Premiumプラン加入者などが利用可能となっている。
Appleが発表した視覚インテリジェンスが限定的な実装にとどまっている中、Geminiは物体認識や色の識別、買い物支援といった実用的なシーンでの活用が期待されており、AI競争の構図に変化をもたらしつつある。現段階では一部機種での使用報告にとどまるが、Googleの早期実装とユーザー主導の試行例は、Appleの遅れを際立たせる材料ともなっている。
Geminiが備えるカメラ連動型インターフェースの実装状況と利用条件

Googleは、Geminiの高度な視覚認識機能を一部のAndroid端末において段階的に導入し始めた。対象となるのは「Gemini Advanced」もしくは「Google One AI Premiumプラン」の加入者であり、カメラを通じたリアルタイムの画像認識や、端末画面の共有を通じてのコンテキスト理解が可能となる。
具体的には、物体識別や周囲の状況に基づいたアドバイスの提供が含まれ、買い物支援や作業補助など、日常生活への実用展開が見込まれている。現時点でこの機能の実行例は限定的であり、Redditなどのユーザー投稿によって一部使用報告が確認されているにとどまる。
最初の実行例はGoogle PixelではなくXiaomiの端末であった点も興味深い。さらに、技術メディア「9to5Google」がGeminiの画面共有機能を動作させた映像を公開しており、Googleが公式に展開中であると認めたことと合わせて、段階的な浸透が始まっていることは確実といえる。ただし、対象端末の明示や本格展開のタイミングについては、今なお不透明なままである。
こうした状況は、Googleが慎重に対象範囲を調整しながらユーザーの反応を測っている可能性を示唆する。また、機能の体感価値をいかに具体的な日常の課題解決に結びつけて示せるかが、今後の浸透スピードを左右する要因となり得る。
Appleとの機能格差が浮き彫りにするAI戦略の方向性
Appleが「Apple Intelligence」の実装に苦戦し、一部機能の延期やSiri関連の人事交代が報じられる中、GoogleはGeminiを通じて視覚と対話の融合を推し進めている。とりわけ、GeminiのProject Astraによるカメラ連動型の応答能力は、Appleの「視覚インテリジェンス」が現時点で持ち得ていない会話型のフィードバックを可能とし、明確な技術的ギャップを示すものとなっている。
Googleのデモでは、ユーザーがカメラを向けた対象に対し具体的なアドバイスを受けられる様子が紹介されており、視覚情報の活用が単なる認識を超えて、行動支援の領域に入りつつある。この差異は、両社のAI戦略の方向性そのものを映し出している。
Appleがプライバシー保護を最優先に設計思想を構築しているのに対し、Googleはクラウドとローカルを融合させたハイブリッドな設計を取り入れ、より広範なデータ活用に踏み込んでいる。Geminiの早期展開は、その実験的柔軟性を活かしたものであり、慎重なAppleとは対照的な攻勢型の戦略といえるだろう。
ただし、ユーザーの信頼獲得という点においては、AIの高度化が常に利便性のみで評価されるわけではない。Googleにとっても、データ活用の透明性や誤認識時の責任の所在といった課題は残されており、Appleとの技術的な距離がそのまま競争優位性に直結するとは限らない。両社のアプローチの違いが、利用者の選択をどう左右するかが今後の焦点となる。
Source:Gizmodo