AI技術の急速な進化により、ディープフェイクが現実と区別できない精度に達するなか、個人の顔や名前、肖像といったアイデンティティが企業やアルゴリズムに無断で利用される事態が深刻化している。

特に米国では、NIL(Name, Image, Likeness)契約を巡って大学アスリートが自らの権利を主張する一方、生体データを収集・収益化する企業に対する規制が未整備なまま放置されている現状がある。

表現の自由をめぐる憲法上の問題や、バイオメトリック法の州間格差、永久契約条項など、既存の法制度は個人の権利保護に対応しきれておらず、AI時代の「顔の所有権」を巡る闘争は今後さらに複雑化する可能性が高い。

AIが突きつけるNIL契約の落とし穴とアスリートの肖像権リスク

2021年にNCAAが大学アスリートによるNIL(Name, Image, Likeness)契約を容認して以来、選手自身が自身のブランドを収益化する機会が拡大している。しかしその一方で、法的リテラシーを十分に持たない若年層が、不利な契約に署名させられる事例が後を絶たない。

特に問題視されているのが「永久条項」と呼ばれる条文で、これにより選手は自らの肖像権を一生にわたり企業に譲渡してしまうリスクを抱える。

こうした契約は、収益機会の創出と同時にアイデンティティの私有化を意味する。契約書に含まれる独占利用や再利用の権利は、技術の進化によってさらに重みを増しており、AIが生成したディープフェイク映像にも拡張される危険性がある。これらの条件に明確な制限を設けなければ、アスリートが自らの顔や声を将来的に制御できなくなる構造が常態化しかねない。

自己の肖像を売却することと、それを恒久的に手放すことの違いは法的にも倫理的にも重い。契約の透明性や法的助言の義務化、期間の上限などを制度として設けることが、NIL制度を持続可能なものにする上で不可欠である。

ディープフェイク規制に立ちはだかる表現の自由と法の不均衡

ディープフェイクの技術は今や音声・映像・画像のいずれにおいても現実と区別がつかない水準に達しており、本人の同意なく生成されるAIコンテンツが拡大しつつある。

これに対し、米国では州単位で規制が試みられている。例えばカリフォルニア州のAB 602法やバージニア州の刑事罰化措置が挙げられるが、これらはポルノや選挙妨害といった限定的な被害に特化しており、肖像権全体の保護には至っていない。

一方、連邦レベルでは包括的なディープフェイク規制が存在せず、米国憲法修正第1条に基づく表現の自由が規制の設計を複雑化させている。AIによる風刺や評論目的の映像は、たとえ名誉を傷つけるものであっても言論の自由として保護される可能性があるため、司法判断も一貫性を欠いている。

技術が現実を模倣する速度に比して、法制度の整備は著しく遅れている。AI生成物の使用における同意の有無を明確に定義し、用途別に線引きを図るガイドラインが求められる。個人の尊厳を守る法的仕組みがなければ、表現の自由は容易に私的搾取の隠れ蓑となり得る。

生体データは誰のものか BIPAに見る法制度の限界と可能性

SNSや空港の監視システムに代表されるように、顔認識技術の普及と共に個人の生体情報は日々企業や政府に蓄積されている。米イリノイ州のバイオメトリック情報プライバシー法(BIPA)は、この領域における最も厳格な州法として注目を集めており、Facebookはこの法律の違反をめぐり6億5,000万ドルという巨額の和解金を支払った実績がある。

しかしこの法律は州レベルにとどまり、連邦法には同様の保護措置が存在しない。さらに、修正第4条は政府機関に対する制約を定めているが、民間企業の活動には及ばない。結果として、個人は自らの顔や身体情報の取り扱いに対し、ほとんど法的な制御手段を持ち得ていない現実がある。

多くの企業は利用規約に同意条項を巧妙に埋め込み、ユーザーが自身の権利を知らないままデータを譲渡する構図が横行している。真の自己決定権を保障するためには、全国レベルでの法整備が不可避であると考えられる。BIPAはその一つの出発点に過ぎず、生体情報の収集・保管・使用に関する透明性と同意の明示が、デジタル社会における新たな人権の柱となる。

Source:Crunchbase News