AIで生成された人工音声を用いた「振り込め詐欺」
偽情報が詐欺などのお金目的や、政治的意図で作られると、ますますやっかいになります。緻密に精巧に、ときには組織的に偽情報が作成・拡散されていくからです。
詐欺の例をみましょう。イギリスにあるエネルギー会社のCEOは、ドイツにある親会社のCEOから電話でハンガリーの業者に資金を送るように頼まれ、22万ユーロを振り込みました。
しかし、それは詐欺でした。生成AIの人工音声が使われており、だまされたCEOによると親会社のCEOのドイツ語訛りまで再現されていたといいます(*2)。
また、セキュリティ会社が生成AIの音声を使った詐欺の実験を行ったところ、実験に協力してくれた会社の財務担当者が見事にだまされました(*3)。CEOの音声をYouTubeで収集し、その音声データを素材にしてCEOに似た音声を作り出し、電話をかけて送金させた実験です。
音声以外の例としては、中国でAIを使って動画と音声を生成してビデオ通話を行い、友人であると信じ込ませて430万元をだまし取った事件が発生しています(*4)。
スマホの小さい画面では、動画であっても偽物と本物の区別がつきにくいレベルにまですでに到達しているといえるでしょう。SNS上で被害者と友人との関係を調べ、SNS上の音声や写真、動画を使って偽動画を作成し、犯行が実行されたとみられています。
今後、さらに動画を使った詐欺が増えていくことになるでしょう。インターネット上で静止画や音声、動画を公開している人は、第三者につけ入るスキを与えることとなります。
*2 Stupp, C. (2019) “Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case” The Wall Street Journal(accessed 2024-05-31)
*3 Moore, J. (2023) “Your voice is my password” welivesecurity(accessed 2024-05-31)
*4 東方新報(2023)「ビデオ電話の友人は生成AIだった 中国で8483万円詐欺,その手口は」(2024年5月31日アクセス)