最近は生成AIによる動画がさかんに作られていますが、それは一方では視聴者が本物だと誤解しかねないことも意味しています。
そんななかYouTubeは「今後数ヶ月」のうちに、クリエイターに対してAIを使って作った動画の報告を義務づけ、そうした動画に「改変または合成コンテンツ」のラベルを表示すると発表しました。
該当する動画は「AIツールの使用を含めて、リアルに見える改変または合成コンテンツ」との表現。たとえば「実際には起こらなかった出来事をリアルに描写したAI生成動画や、実際にやっていないことを誰かが言ったり行っているコンテンツ」との例を挙げています。
また「選挙や進行中の紛争や公衆衛生上の危機、または公務員などのデリケートな話題についての議論」に関する動画は「特に重要」だとして、より目立つAIラベルが付けられます。つまり、「一部が改変・合成されている」と「デリケートな話題」という、2種類のラベルが用意されているわけです。
この報告を一貫して行わなかったクリエイターは「コンテンツの削除、YouTube パートナープログラムの停止、またはその他の罰則の対象」になる可能性があります。また、この新たな要件を理解してもらうため「サービスが開始される前にクリエイターと協力する」とも述べ、猶予期間を設けて周知を徹底する構えです。
さらにラベルを付けていたとしても、YouTubeのコミュニティガイドラインに違反する場合は削除されます。たとえば「その目的が、視聴者にショックや嫌悪感を与えることが目的」のものです。
新たなAI音声生成ツールが公開されるや、直ちに著名人の声でヘイトスピーチを喋らせるディープフェイクボイスが横行したこともありました。世界最大の動画プラットフォームYouTubeも、対応を迫られたのでしょう。
また、音楽パートナーが「アーティストの歌声やラップを模倣したAI生成音楽コンテンツの削除をリクエストできる」機能を導入するとのことです。
これは今年4月頃に話題となった、人気ラッパーのドレイクらの声をAIに学習させて作ったディープフェイク曲などを指しているようです。具体的には、アーティストの代理人であるレーベルや音楽配信サービスからの削除要請を受け付けることになります。