AppleのiPhone音声入力機能で、一部のユーザーが「Racist(人種差別主義者)」と発音すると「Trump」と変換され、その後「Racist」に修正される現象が報告されている。ニューヨーク・タイムズがこの問題を再現できたと報じる一方、Macworldの編集者は再現できなかった。TikTokではこの現象を捉えた動画が拡散し、関心を集めている。

Appleは、これが「音韻的な類似性」によるものと説明しているが、「Racist」と「Trump」は発音が大きく異なり、疑問が残る。また、Appleの元Siriチームの開発者ジョン・バーキーは、この問題が単なる誤学習ではなく、意図的な改変の可能性があると指摘する。バーキーによれば、データかコードのいずれかに意図的に仕組まれたものだと考えられるという。

Appleはトランプ政権下で政府との関係を慎重に構築してきた経緯があり、同社の音声認識技術を巡る今回の問題は、意図的か否かにかかわらず大きな波紋を呼ぶだろう。

音声入力技術の限界とAppleの説明に残る疑問

Appleは今回の問題について、音声認識システムにおける「音韻的な類似性」に起因すると説明している。しかし、「Racist」と「Trump」の発音は大きく異なり、単なる誤認識とするには疑問が残る。通常、音声入力機能は文脈や使用頻度などの要素を加味して変換結果を決定するため、異なる単語へと変換されるのは不自然といえる。

また、問題が発生するのは「Racist」が「Trump」に変換された後、再び「Racist」に戻るという挙動であり、単なる音声認識エラーでは説明がつかない。もし音韻的な誤認識が原因であれば、変換は一度で完了し、そのまま維持されるはずだ。この不可解な挙動が、意図的な改変やバグの可能性を示唆していると見る向きもある。

Appleの元Siri開発者ジョン・バーキーは、AIサーバーのアップデートが関与している可能性を指摘している。音声認識技術はサーバー側の学習データによって随時更新されるが、誤ったデータが混入すれば、意図しない変換が発生することもあり得る。

バーキーは、単なる誤学習ではなく、コードやデータに何らかの意図的な要素が含まれている可能性を示唆しており、Apple内部の管理体制にも影響を及ぼす問題といえるだろう。

AIの中立性と企業の倫理が問われる時代

今回の事例は、AI技術が持つ影響力と、それを管理する企業の責任を浮き彫りにした。音声入力技術は日常生活に深く浸透しており、特定の言葉が意図せず置き換えられる事例は、利用者の信頼を揺るがす要因となる。Appleは「誤変換」と説明しているが、意図的であるか否かに関係なく、企業がどのようにAIを管理しているのかが問われる事態となった。

AIが言語を処理する際、政治的・倫理的なバイアスが入り込む可能性は常に指摘されてきた。例えば、検索エンジンのオートコンプリート機能やSNSのアルゴリズムも、データの学習方法によっては偏った結果を示すことがある。Appleの音声入力機能も例外ではなく、内部のデータ処理がどのように行われているかの透明性が求められる。

また、企業の姿勢も問題となる。Appleはこれまで政治的中立を保つ姿勢を強調してきたが、過去にはトランプ政権との関係を築くために動いたこともある。今回の問題が意図的なものでなくとも、こうした過去の経緯が影響を与えた可能性は否定できない。AIの進化が続く中で、企業は技術だけでなく、その運用方針や管理体制についても社会的責任を問われることになるだろう。

Source:Macworld