いわゆるオレオレ詐欺の被害は、警察や銀行窓口での周知徹底にもかかわらず留まるところを知りません。米国では昨年、AIで実在する人物の声を複製し、電話してくる「なりすまし電話詐欺」の被害額が、1100万ドル(約15億円)に達したことが報じられています。
AI音声合成ソフトのなかにはわずか数秒間、数センテンスの話し声があれば、その人にそっくりな声でコンピューターに喋らせられるものがあります。このような技術が出てくれば、それを使って誰かを騙して金を取ろうと考える詐欺師が出てくることは必然かもしれません。
Washington Postは、ある夫婦にかかってきた息子からの電話を紹介。その声は交通事故で米国の外交官を死亡させてしまい、弁護士費用として1万5000ドル(約204万円)が必要だと告げられ、言われるままにビットコインで支払ってしまったとのことです。
被害者は、感情的かつ説得力を伴うほど友人や家族にそっくりな声で助けを求められたことで「直感的な恐怖」を感じたと語っています。日本のオレオレ詐欺と同様に、ターゲットとされることが多い高齢者にあっては、金銭要求の背景設定が多少あり得ないようなものだったとしても、それを見抜くのはますます困難になりつつあると同紙は伝えています。
米国では、なりすまし電話詐欺は報告された詐欺の件数のなかで2番目に多いとのこと。もし詐欺グループが国外から、しかもディープフェイク音声で電話をかけてきていたりすれば、それを追跡し、実行犯を特定、検挙して資金を回収するのは非常に困難というほかありません。また、その事件をどの捜査機関が扱うべきなのかもはっきりしない場合があるとのことです。
AIを使ったディープフェイク音声は、たとえば俳優が引退してしまった『スター・ウォーズ』の登場人物、ダース・ベイダーの声を違和感なく引き続き提供し続けるといった使用例がある一方、著名人のディープフェイク音声を使って人種差別的、攻撃的、暴力的な発言をさせた事例もあります。
ディープフェイク音声だけでなく、ChatGPTのようなAIテキスト生成ツールを用いた場合でも、たとえば医療に関する文章に致命的な誤情報を含む可能性もないとは言い切れず、なんらかの被害や損害を誰かに被らせてしまう可能性が考えられます。現在は、AI開発企業もそのようなリスクを回避する方法を充分に用意しないまま、ユーザー獲得を急ぐために製品をリリースしているような状況かも知れません。
米連邦取引委員会(FTC)は先月、企業に対して「AI製品を市場に出す前に、合理的に予見可能なリスクと影響について知る必要がある」と伝えています。また2021年にはAI製品に関して、製品を使用する際のリスクに対して責任を負う覚悟が必要だとAI企業に伝えていました。
マイクロソフトは、Bing AIのプレビューにおいて有名人の声を真似て会話する「セレブリティ・モード」を提供していることが伝えられています。このモードではマシュー・マコノヒーや、クリス・ロック(ウィル・スミスに平手打ちされた人)といった人物の声でBing AIに喋らせることができますが、一部の言葉を使った発言をできなくすることで、悪用を防止しようとしている模様です。ただ、それでも人身売買の容疑者であるアンドリュー・テイトの声を模して、信じられないほどの女性差別発言をさせることもできるようで、自主規制の網目はけっこう粗いようです。