米国の俳優・歌手など約16万人が加盟する労働組合 SAG-AFTRA は、10月20日(現地時間)、OpenAI などと連携し、動画生成AIモデル「Sora 2」における音声や肖像の保護を強化する取り組みを開始したと発表した。
このプロジェクトには、タレント業界団体の Association of Talent Agents(ATA) も参加している。
SAG-AFTRAによると、「Sora 2」のリリース後、俳優のブライアン・クランストン氏の声と肖像が、本人の同意や報酬なしに生成された事例が確認されたという。
OpenAIは当初から、声や肖像の利用には本人のオプトイン(明示的同意)が必要としていたが、今回の事案を受け「意図しない生成が行われたことは遺憾」とコメント。
その後、同社は声と肖像のコピーに関するガードレール(安全対策)を強化し、「寄せられた苦情には迅速に対応する」との姿勢を示している。
新たな枠組みでは、米連邦議会で審議中の法案「NO FAKES Act」への支持を表明し、「持続可能で倫理的なクリエイティブエコシステムの基盤は、同意と報酬にある」との立場を共有している。
「NO FAKES Act」は2024年4月に連邦議会に提出された法案で、AIによって生成された個人の声や肖像といった“デジタルレプリカ”が本人の許可なく利用された場合、法的責任を問えるようにすることを目的としている。現在、上下両院の司法委員会で審議が進められている。
OpenAIが導入する新たなオプトインプロトコルにより、アーティストは自身の声や肖像をAIに利用させるかどうかを明示的に選択できるようになる。
OpenAIのサム・アルトマンCEOは発表文の中で、
「OpenAIはパフォーマーの声や肖像の不正利用から彼らを守ることに深く取り組んでいます。私たちはNO FAKES Actの早期支持者であり、今後もパフォーマーの権利を守り続けます」とコメントしている。
なお、「Sora」による著名人のディープフェイク生成をめぐっては、マーティン・ルーサー・キング・ジュニア牧師や俳優ロビン・ウィリアムズ氏の遺族が苦情を申し立てたほか、日本政府もアニメキャラクターの無断使用に関して利用禁止を要請したと報じられている。






