Appleは、次期iOS 19のアップデートにおいてAirPodsにリアルタイム翻訳機能を搭載する計画を進めている。Bloomberg Newsの報道によると、この機能はiPhoneとの連携により、ユーザーが理解できない言語を即座に翻訳し、イヤホンを通じて音声で提供する仕組みだ。

さらに、ユーザーの発話も翻訳され、ペアリングされたiPhoneのスピーカーを通じて再生される。この機能は、GoogleのPixel Buds Pro 2やSamsungのGalaxy Buds3などの既存製品と競合することが予想されるが、Apple独自のエコシステムによるシームレスな体験が強みとなるだろう。

現時点でどのAirPodsモデルがこの機能をサポートするかは明かされていない。加えて、Appleは第3世代のAirPods ProやAI搭載の新モデル開発にも取り組んでいるとされ、今後の展開に注目が集まる。

AirPodsに搭載されるリアルタイム翻訳機能の詳細とその仕組み

Appleは、iOS 19のアップデートを通じてAirPodsにリアルタイム翻訳機能を追加する計画を進めている。この機能は、iPhoneと連携し、対面会話の翻訳を可能にするという。具体的には、ユーザーが異なる言語で話す相手と会話する際、AirPodsがその内容を即座に翻訳し、イヤホンから再生する仕組みである。

また、ユーザーの発話も翻訳され、iPhoneのスピーカーを通じて相手に届けられる。この技術のベースとなるのは、Appleの「Translate」アプリだ。2020年にリリースされた同アプリは、現在19の言語に対応しており、オフライン翻訳機能も備えている。

これまで、Appleの翻訳技術はiPhoneやMac、iPadでのテキスト翻訳や音声翻訳に活用されてきたが、今回のAirPodsとの統合により、より実用的な形での展開が進むことになる。一方で、今回の発表では、どのモデルのAirPodsがこの新機能の対象となるのかは明らかにされていない。

第2世代以降のAirPods Proなど、高性能なチップを搭載したモデルが優先される可能性がある。Appleが正式にどのモデルへ展開するのか、今後の情報開示が待たれる。

競争が激化するワイヤレスイヤホンの翻訳機能市場

リアルタイム翻訳機能を搭載したワイヤレスイヤホンは、すでにGoogleやSamsungが市場に投入している。例えば、GoogleのPixel Buds Pro 2は「通訳モード」を搭載し、対応するスマートフォンと組み合わせることで多言語間のリアルタイム翻訳を実現する。また、SamsungのGalaxy Buds3やBuds3 Proも、同様の通訳機能を提供している。

これらの製品と比較した場合、AppleのAirPodsはiOSとのシームレスな連携が最大の強みとなる。Appleのエコシステム内で統一されたソフトウェアとハードウェアの統合により、よりスムーズな翻訳体験が実現される可能性が高い。また、AirPodsは既存のAppleユーザーに広く普及しており、翻訳機能の追加によってさらなる利便性が提供されることになる。

一方で、他社製品がすでに市場にある中、Appleの翻訳機能がどの程度の精度を持つのかが焦点となる。特に、音声認識の精度や翻訳の正確性、遅延の少なさなどが実用面での重要なポイントとなる。GoogleやSamsungが先行している分野にAppleがどのように差別化を図るのか、今後の発表に注目が集まる。

AirPodsの進化とAppleの次なる展開

Bloombergの報道によると、AppleはiOS 19に伴うAirPodsの進化にとどまらず、第3世代のAirPods Proの開発を進めているとされる。この新モデルには、AI技術「Apple Intelligence」を活用した機能が搭載される可能性があり、より高度な音声認識や環境音の分析機能を備えることが予想される。

また、AirPodsに内蔵カメラを搭載する計画も進行中だという。カメラを利用することで、周囲の環境を認識し、それに応じた音響調整や翻訳支援を行う仕組みが考えられる。例えば、ユーザーがカメラを通じて見たテキストをリアルタイムで翻訳し、音声で伝えるといった新たな活用法が想定される。

これらの動きからも分かるように、AppleはAirPodsを単なるワイヤレスイヤホンにとどまらせるつもりはない。AI技術やカメラ機能を活用し、より包括的な音声・言語コミュニケーションデバイスへと進化させることを狙っている。今後のAppleの動向は、ワイヤレスイヤホン市場のみならず、翻訳技術の分野においても大きな影響を与えることになるだろう。

Source:GSMArena