NPRの元Morning Editionホスト、David Greene氏がGoogleを相手取って訴訟を起こしました。理由は「Google NotebookLMのポッドキャスト機能に使われているAI音声が、自分の声を無断で模倣している」というもの。AI時代の著作権・肖像権を考える上でかなり重要な事件なんですよね。気になったので調べてみました。
何が起きたのか
Google NotebookLMには「Audio Overviews」という機能があります。ユーザーがアップロードした文書やメモを、AIが自動でポッドキャスト形式の会話に変換してくれるものですね。この機能に使われている男性のAI音声が、Greene氏の声に「不気味なほど似ている」と同僚や友人から指摘されたのが発端です。
Greene氏によると、話し方のリズム、間の取り方、さらには言い淀みのパターンまで自分のオンエアでのスタイルと一致しているとのこと。何十年もかけて築き上げたプロフェッショナルとしての声が、無断で複製されたと主張しているわけです。
Googleの反論
一方、Googleは「NotebookLMの音声はプロの声優を雇って録音したものがベースで、Greene氏の声から学習したものではない」と明確に否定しています。
ここが技術的に面白いポイントなんですよね。「パブリックラジオ風」の自然な語り口を目指して声優にディレクションをかけた結果、同じジャンルのプロであるGreene氏に似た声になってしまった、という可能性は十分にあります。ブロードキャスト業界では明瞭な発音・適度な間・穏やかな強調といった「お手本」が共通しているため、似通うこと自体は不自然ではないんですよね。
AI音声クローンの法的な論点
この訴訟が注目される理由は、AI時代における「声の権利」をどこまで保護するかという未開拓の法的領域に踏み込んでいるからです。
アメリカの判例では、Midler対Ford Motor Co.事件(1988年)やWaits対Frito-Lay事件(1992年)で、「有名人の声を模倣したCMは肖像権の侵害にあたりうる」という判決が出ています。ただし、これらは人間のそっくりさんを雇ったケースで、AIによる音声生成とは状況が異なります。
カリフォルニア州は特に肖像権保護が強く、2024年にはニューヨーク州でも「デジタルレプリカ」の無断使用を禁止する法律が施行されました。ただ、今回のケースのように「意図的にクローンしたわけではないが結果的に似てしまった」場合に、これらの法律がどう適用されるかは前例がありません。
過去のAI音声紛争から見える傾向
似た問題は他でも起きています。音声AIの進化に伴い、このタイプの紛争は増加傾向です。
OpenAIはChatGPTの音声機能「Sky」を、女優Scarlett Johansson氏の声に似ていると指摘されて取り下げました。TikTokは声優のBev Standing氏の声がテキスト読み上げ機能に無断使用されたとして訴えられ、和解しています。
これらの事例に共通するのは、「企業側が特定の人物の声を意図的に使った」のか「結果的に似てしまった」のかが争点になっている点です。そして技術的に、AIの学習プロセスでどの音声データが使われたかを完全に追跡することは困難なため、立証のハードルは高いですね。
この訴訟が持つ業界への影響
この訴訟の結果次第では、AI音声サービスの開発・運用に大きな影響が出ます。具体的には以下のような変化が考えられます。
まず、学習データの透明性要求。どの音声データでモデルを訓練したかの開示義務が課される可能性があります。また、声の権利のライセンス化。声優やナレーターの声を使う際に、明示的なライセンス契約が標準になる可能性も出てきました。
顔認識技術のClearview AIが顔のデータで問題になったように、声のデータについても同様の議論が本格化しそうです。また、AIの倫理問題はエージェント領域だけでなく、こうした生体データの利用全般に広がりつつあります。
まとめ
David Greene氏対Googleの訴訟は、AI音声クローンに関する初の本格的な法廷闘争になる可能性があります。技術的には「意図的なクローン」と「偶発的な類似」の境界線が争われることになりますし、法的には既存の肖像権・パブリシティ権の枠組みがAI時代にどう拡張されるかが試されます。
声で生計を立てている人にとっては他人事ではない話ですし、AIサービスを開発する側にとってもリスク管理の観点から注目すべき案件です。判決が出るにはまだ時間がかかりそうですが、今後の展開は要注目ですね。