AppleはiOS 18.4の提供開始と同時に、AI機能「Visual Intelligence」をiPhone 15 ProおよびiPhone 16eにも対応させた。これにより、カメラコントロール非搭載のiPhoneでも、アクションボタンを通じてAIが周囲の文字や物体を即座に解析・翻訳・読み上げ・検索することが可能となった。

視覚情報の処理能力は、テキスト認識やGoogle画像検索、ChatGPT連携を含む多様な用途に広がっており、従来はiPhone 16上位モデル限定だった高度な支援機能がより広い層に開放された格好だ。Apple Intelligenceの機能が旧モデルにも展開される流れは、ユーザー体験の平準化とAI活用の日常化を意識した戦略とみられ、今後のアップデート動向にも注目が集まる。

アクションボタン搭載機種に拡張されたVisual Intelligenceの仕様と利用手順

AppleがiOS 18.4で解禁した「Visual Intelligence」は、当初カメラコントロールを搭載したiPhone 16に限定されていたが、今回のアップデートにより、アクションボタンを搭載するiPhone 15 ProおよびiPhone 16eにも対応機種が拡張された。

使用するには、iPhoneをiOS 18.4にアップデートしたうえで、「設定」アプリからアクションボタンのメニューを開き、「Visual Intelligence」へスワイプ選択するだけでよい。アクションボタンを押すたびに、周囲の情報解析が即時に起動する設計である。

同機能は、目に見える情報をリアルタイムで読み取り、テキストを要約・翻訳・音声化する能力に加え、Google画像検索や連絡先情報の抽出なども可能にしている。たとえば、街中で見かけた店舗の看板を読み取り、そのまま詳細情報を検索したり、掲示された外国語の文書をその場で読み上げさせたりといった活用が想定される。

専用チップやセンサーではなく、既存のハードウェアを活用してこれだけの体験が実現している点は、AppleのAI統合設計の柔軟性を示している。

Apple Intelligenceの拡張が示すAI戦略の転換と今後の方向性

iPhone 15 Proや16eといった旧モデルにApple Intelligenceの中核機能を開放した動きは、AppleのAI戦略における一つの転換点を物語っている。従来、最新機種の機能差別化が明確だったが、今回のVisual Intelligence対応は、ハードウェア依存からアクションボタンというUIインターフェース重視へのシフトを印象づけた。

Appleはこの判断によって、最新機種購入を前提としない形で、より多くのユーザーにAI体験を届ける道を選んだといえる。この方針には、AIの活用が日常のユースケースに浸透しつつある現状が背景にあると考えられる。

検索や翻訳、情報収集といった反復的なタスクは、すでにクラウド経由のAIで実現可能な領域となっており、それをスマートフォンの物理操作ひとつで完結させることで、ユーザー体験が飛躍的に簡素化される。AppleがあえてiPhone 16eのような廉価モデルにも展開した背景には、機能の民主化によってAIが“日用品”となる未来を視野に入れている可能性がある。

Source:BGR