AI音声でなりすまし詐欺急増
人工知能(AI)でターゲットの声を複製し、家族や友人に電話をかけて金銭や機密情報を騙し取る詐欺が米国で急増している。知らないうちに被害に遭う例も多く、被害者が知人本人だと信じ込むことから発覚が遅れる可能性がある。日本でも被害の恐れがあるとして、専門家は対策の必要性を呼びかけている。
他人の声を複製する技術は「ディープフェイクボイス」と呼ばれる。3秒程度の音声データがあれば、一致率約85%の音声を合成することができる。10秒もあれば、非常にクリアな音声を作成可能だという。
詐欺師はSNS(交流サイト)などにアップロードされた動画などからデータを抜き取り、AIに入力して合成音声を作り上げる。いわゆる「オレオレ詐欺」のように、ターゲットに親族などを装って電話をかけるのが特徴だ。
米連邦取引委員会(FTC)によると、家族や友人を装った電話による詐欺は2022年で約5000件に上った。AI悪用の件数はわからないが、悪用された可能性が高い事例もある。中国でもAIを活用した詐欺が増加しており、警察当局が警戒を呼びかけている。
こうした事例が増えた背景として、AIによる音声複製ツールの普及が挙げられる。数秒の音声データをAIに入力することで、パニック状態の音声を自由に作ることができる。発言内容に応じて、笑いや恐怖などの感情を追加することも可能だという。
米マカフィーの調査によると、欧米や日本など7カ国で「AI音声の詐欺に遭遇したことがある」と答えた人は1割だった。そのうち、日本人の被害は3%と最も少なかったが、被害が潜在化している可能性も否めない。
日本でも被害拡大の恐れ
日本語に対応したAI音声複製技術は英語に比べるとまだ少ない。しかし、サービスは普及しつつあり、「被害が広がるのは時間の問題だ」とする専門家もいる。
日本における特殊詐欺被害のうち、オレオレ詐欺の被害額は129億円を超える。政府はAI悪用のリスクとして、犯罪での合成音声の利用を挙げている。AI音声を見破る技術の発達が急がれる。
【関連リンク】
・AI voice cloning scams on the rise, expert warns(FOX BUISINESS)
https://www.foxbusiness.com/technology/ai-voice-cloning-scams-on-rise-expert-warns
TEXT:PreBell編集部
PHOTO:iStock
この記事を気にいったらいいね!しよう
PreBellの最新の話題をお届けします。