Appleは、Vision Proに視覚支援を目的とした新たなアクセシビリティ機能を追加すると発表した。拡張されたズーム機能により、現実と仮想の両オブジェクトが自在に拡大表示できるようになり、VoiceOverによる周囲の音声ガイドや書類の読み上げも可能になる。
さらに開発者向けにカメラAPIの提供も予定されており、「Be My Eyes」のような視覚支援アプリとの連携が強化される見込みだ。visionOSやiOSには、Synchron社との共同開発による脳-コンピュータ・インターフェース(BCI)対応プロトコルも追加され、頭の動きや思考による操作支援の可能性が拡がる。
Appleのヘッドセットが実用的な視覚代替デバイスとして進化するなか、将来的にはスマートグラスやAirPodsなど他のウェアラブル製品への応用も期待されている。
Vision Proが提供する拡大機能と音声支援の進化

Appleが発表したVision Proのアクセシビリティアップデートでは、仮想・現実の両空間における視覚支援が大きく前進している。新たに導入されるズーム機能は、ヘッドセットのメインカメラを用いて視界を大きく拡張できる仕組みで、物理的な本やデジタルのアプリ画面に対しても自在に拡大表示が可能となる。これは、レシピ本の読解やアプリ操作といった日常的な行動において、従来のスマートフォンを超える操作性をもたらす設計である。
また、visionOS上でのVoiceOver機能の実装により、視覚に頼らず周囲の状況や物体、文書を音声で把握することが可能になる。これらの機能は、現時点では視覚に課題を抱える利用者に特化した支援技術としての性格が強いが、将来的には両手を塞がずに情報を得たい場面でも有効に機能すると考えられる。拡張現実の実用性を押し広げる要素として、Vision Proの操作性はアクセシビリティ領域を越え、より広範なユーザー体験の質にも影響を与える可能性がある。
カメラAPI開放とBCI連携が示す未来の支援技術の方向性
今回のアップデートでは、アクセシビリティアプリ向けにVision ProのカメラAPIを開放する計画も明かされた。これにより、視覚情報のリアルタイム共有が可能な「Be My Eyes」のようなサービスと連携し、人対人の支援がヘッドセットを通じて強化される道が拓かれる。特に現地でのサポートを必要としない形で、遠隔からの視覚補助が成立する環境は、移動の自由度や作業効率を大きく向上させる可能性がある。
さらに、AppleがSynchronと連携し脳-コンピュータ・インターフェース(BCI)への対応を進めている点も注目に値する。iOSやvisionOSに実装される新しいプロトコルは、頭の動きや思考を入力に転換するSwitch Controlとの連動を想定しており、視覚や身体的制約を持つ利用者にとって代替入力手段としての意義を持つ。Synchronの技術はNeuralinkほどの精緻なカーソル操作には未対応とされるが、単純なアイコン選択などでは既に実用段階にある。今後、スマートグラスやAirPodsのような製品群にこの仕組みが展開されれば、支援技術はより日常的で自然な形へと進化していくと見られる。
Source:The Verge