AI音声合成による新たなオレオレ詐欺への懸念

広告

本物そっくりな声でオレオレ詐欺が掛かってきたら・・


 日々めまぐるしく進歩するAI技術。音声データを合成し、本人の声そっくりな音声データを生み出すAIも既に登場しています。しかし、これらの技術には悪用されるリスクも。対策と交えて解説します。






AI音声合成はオレオレ詐欺に悪用される


 AIを使った音声合成技術はオレオレ詐欺(特殊詐欺)に悪用される恐れがあります。今後発生するであろう手口を解説します。


AI音声合成技術の進歩は「凄い」


 まずはAI音声合成技術が現時点で「出来ること」を紹介します。



 上の動画は、AIによる音声合成で作られた音声読み上げの実例です。文章を入力すると、若干の「機械感」はありつつも自然に聞き取れる発音で音声を読み上げています。


 こうした音声合成AIは、予め録音した特定の人の音声サンプルデータを使って、まるでその人が話しているような音声データを生成することが可能です。


 現時点で既にこの程度のことが可能なので、おそらく遅くとも2025年頃までには例えば人が話した内容にリアルタイムで他の人の肉声を被せるリアルタイム翻訳のようなソフトウェアも広く普及していくでしょう。


オレオレ詐欺(特殊詐欺)に悪用される懸念


 このような音声合成技術は今後、オレオレ詐欺(特殊詐欺)にも悪用されることになるでしょう。


 「本人そっくりな」声で掛かってきた電話で、例えば「会社のカネを横領して今日中に300万必要になった」と言われたら、多くの人が動揺するはずです。声が「本人」に聞こえるのであれば、高齢者だけでなく若年層でも騙されるリスクが高まるでしょう。


 音声のデータは有名人やYoutuberであれば容易に入手できますし、あるいはオレオレ詐欺のターゲット(高齢者など)の子供に直接電話を掛け、そのやり取りを録音してそのデータから音声を合成するといった手口が想定出来ます。


AIで描いた絵

AIが数秒で描いた絵

ビデオ通話との組み合わせも


 昨今はAIで動画を生成する技術も進歩しています。


 音声だけならまだしも、ビデオ通話越しに「本人」と会話しているような動画をリアルタイムで生成出来るようになれば、詐欺の成功確率は格段に高まるでしょう。


 既にカメラで撮影した人物の動画に、アニメキャラクターなどのアバターを合成する技術は広く使われており、特定の人物になりすまして通話できるシステムはそう遠くないうちに、多くの人が想像している以上のクオリティで登場します。




AI音声合成によるオレオレ詐欺を防ぐには


 AIを悪用した合成によるオレオレ詐欺を防ぐ対策を考えます。


家族など周りの人に相談する


 金銭やキャッシュカードなどを要求する電話が掛かって来た際は、「必ず」家族など周りの人に相談するよう家族間で予め話し合っておくことが重要です。


 他の人に相談しづらくなるようなシチュエーションに追い込まれる場合も多々あるようです。例えば「息子」から痴漢で捕まったので示談金が必要だという電話が掛かってきたら、家族以外の人に相談することは非常に難しいでしょう。


 電話の「本人」に折り返して確認する、それも難しい場合は警察などに相談する、予め決めておいた弁護士に相談する、など多重的な対策を整えておくことが有効です。


登録した番号以外からの電話を取らない


 予め登録しておいた電話番号以外からの電話は一切取らないことも、特殊詐欺の対策として奨励されています。


 登録外からの着信は特殊詐欺以外にも、押し売りのような訪問販売など様々な損失への「入り口」となりうるものが少なくありません。知らない番号からの電話は取らず、留守番電話を聞いた上で判断することが対策として有効です。




関連記事



セキュリティソフト
の比較
Windowsのセキュリティソフト比較 Androidスマホ・タブレットのセキュリティソフト比較 iPhone/iPad(iOS)のセキュリティ Macのセキュリティソフト比較