Appleは音声アシスタントSiriの抜本的再構築に着手し、Vision Proを率いたMike Rockwell氏を新たな責任者に据えた。Bloombergの報道によれば、彼の指導のもと、音声認識やユーザー体験、アーキテクチャ全般においてVision Pro出身の幹部らが中核を担う。
画面認識機能の導入延期など課題が表面化する中、AppleはLLMベースの新アーキテクチャによってSiriを対話重視のインターフェースへと転換させる構想を進めている。こうした改革は、生成AIの台頭により激化する競争への対応でもあり、AppleにとってSiriを単なる音声操作から知的なアシスタントへと進化させる重要な分岐点となる。
Siri刷新の中核にVision Proの技術者集団を投入

Appleは、Vision Pro開発を率いたMike Rockwell氏の主導のもと、Siriの再構築に踏み切った。彼は、音声認識や自然言語理解、処理速度、UI設計といったSiriの基盤技術を見直すため、Vision Proチームから複数の中核人材を招集した。Ranjit Desai氏がエンジニアリングを統括し、Olivier Gutknecht氏がユーザー体験、Nate Begeman氏とTom Duffy氏がアーキテクチャ設計を担う。
さらに、Stuart Bowers氏がデータ解析とLLM訓練に関するチームを監督する。これにより、Appleは音声アシスタントの品質を劇的に引き上げることを狙っている。これらの人事は、単なる社内異動ではない。AppleがSiriを“AI時代の主役”へと進化させる構想を持つことを如実に示す。
Vision Proで培った低遅延処理や直感的UIの知見をSiriに転用することで、リアルタイム性とユーザー没入感を強化しようとしている。だが、この改革は数年単位のプロジェクトと見られ、短期的な成果は期待しづらい。競合がすでに高精度な会話AIを提供するなか、Appleは遅れを取り戻す持久戦に突入している。
オンスクリーンアウェアネスの遅延とAI戦略の転換点
Appleは、Siriの新機能「オンスクリーンアウェアネス」のリリースを延期した。この機能は、ユーザーが画面上で見ている情報を基にSiriが文脈を理解し、リアルタイムで情報提供することを目指していた。延期の理由は明らかではないが、機能の複雑性やパフォーマンス、セキュリティ面での最適化に時間を要している可能性がある。
こうした中で、AppleはSiriにおけるAI基盤そのものを再設計し、LLM中心のアーキテクチャを採用する方針に転じている。この方針転換は、単なる技術刷新ではなく、AppleのAI戦略全体における転換点とも言える。従来のSiriは定型文応答に強みを持っていたが、今後は生成型AIとの統合によって、より柔軟かつ文脈に沿った対話が求められる。
オンスクリーンアウェアネスのような先進的な機能が延期された背景には、この大規模なアーキテクチャ移行が影響していると見られる。Appleがいかに既存資産を再構成し、新たなAI時代に適応できるかが今後の焦点となる。
WWDC 2025でのSiri関連発表の可能性と現実的展望
Siri再構築の大規模プロジェクトが進行中であるにもかかわらず、2025年のWWDCにおいて目立った進展は発表されない可能性が高い。Mark Gurman氏の報道では、Appleは依然としてSiriのLLM化に向けた準備段階にあるとされており、ユーザーにとって目に見える成果を披露するには時期尚早とされている。
また、現在のSiriチームは、従来型タスク対応に集中するチームと、新たなLLMベースの開発に取り組むチームの二層構造となっており、統合には時間を要する。これにより、AppleがSiriで成果を出すには2026年以降まで待つ必要があるという見方が強まる。
すでにGoogleやOpenAIが日常会話に対応する高精度アシスタントを公開する中で、Appleは「後追い」として厳しい評価を受けかねない。しかし、Appleは過去にもiPhoneやApple Watchで“遅れて登場し圧倒する”戦略を取ってきた。現在進行中のSiri刷新も、そうした徹底した品質重視の姿勢の延長線上にある可能性がある。期待と不安が交錯するなか、Cupertinoの次の一手に注目が集まる。
Source:BGR