韓国では今年上半期のボイスフィッシング詐欺による被害額が6421億ウォン(約685億円)に上った。昨年1年間の被害額は過去最高の8545億ウォンを記録したが、この傾向が続けば被害額は1兆ウォンを超える可能性が高い。昨年の1人当たりの詐欺被害額も初めて4000万ウォンを突破した。前年に比べ73%増えた。

【世代別】ボイスフィッシング詐欺被害者数の推移

 株式投資ブームを悪用した投資勧誘詐欺、ロマンス詐欺などと比較すると、ボイスフィッシング詐欺は比較的古い手口だったが、最近は人工知能(AI)技術の発達を背景として急速に拡大している。本物そっくりの声と映像を簡単に作れる生成 AIが詐欺犯罪を後押ししている。捜査関係者は「AIが人の声や姿はもちろん、話し方、イントネーションまで正確に再現できるようになり、家族も判別しにくいレベルまで来た」と話した。

■AI技術で高度化、国際化するボイスフィッシング

 生成AI技術はソーシャルメディアに掲載された写真数枚と動画の音声が30秒ほどさえあれば、誰でも簡単にディープフェイク映像を作り、声をコピーできる水準にまで発達した。昨年5月、釜山でAI技術で複製した声「ディープボイス」を活用したボイスフィッシング犯罪が摘発された。この事件の被害者である60代女性Bさんは娘の番号で「友人の保証人になったが、友人に連絡がつかずに自分が捕まった」という電話を受け、近くの銀行で2000万ウォンを引き出した。しかし、警察による捜査の結果、Bさんにかかってきた電話の娘の声は、AIを使って作成した声だった。

 昨年10月、中国人Aさんのスマートフォンにある動画が送信された。動画には韓国に旅行に行った20代の娘がどこかに監禁され、手足を縛られて泣きそうになっていた。何度再生しても、数日前に出かけた娘の姿に間違いないように見えた。動画の発信者は身元を明らかにせず、「無事に娘の顔を見たければ、直ちに示談金を準備しろ」と言った。しかし、娘は無事に旅行中だった。済州西部署が確認した結果、娘がソーシャルメディアに済州島に到着した後、掲載した写真や説明などに基づき、AIで作成したディープフェイク動画だった。あまりにも精巧なので、刑事の一部は娘が両親から金銭を受け取るために友人らと自作自演したのではないかとも疑ったという。韓国警察がボイスフィッシング犯罪にディープフェイクが活用されたことを確認した初の事例だった。

 AI技術で映像や音声のねつ造が可能になり、国際犯罪組織が相次いで韓国国民をターゲットにボイスフィッシング犯罪に及んでいる。カンボジアなど東南アジアで主に活動する詐欺犯罪のメンバーは、本紙の取材過程で「中国人のメンバーも『ChatGPT』や『DeepSeek』で直接韓国語シナリオをつくる」と話した。AI技術の発展に伴い、海外で韓国人を対象にボイスフィッシング詐欺を働くことがさらに容易になったのだ。今年4月、蔚山市でもディープフェイクを活用して作った仮想の人物で異性100人余りに接近し、計120億ウォンを詐取した犯罪組織メンバーが警察に逮捕された。彼らもカンボジアに拠点を置いて活動していたことが分かった。

■情報流出が多い20代の被害者急増

 これまで韓国のボイスフィッシング犯罪の主なターゲットは50~70代の中高年だった。警察庁によると、今年上半期に発生したボイスフィッシング犯罪1万2339件のうち47.6%が50~60代の被害者だった。他の年齢層と比較して資産が多い一方、最新の金融詐欺に対する情報が不足しているため、ボイスフィッシング組織の主な標的になってきた。

 最近は50代の被害者が大幅に減少している。50代が過去に比べてインターネット技術などに親しむようになったためだと分析されている。代わりに60代と20代以下の被害割合が急増している。今年上半期、20代以下のボイスフィッシング詐欺被害者の割合は23.9%で、最も被害が多い年代である60代(25.6%)に続いた。東国大警察行政学科の李潤鎬(イ・ユンホ)教授は「ソーシャルメディアなどデジタル活動が活発な青年層が新たな犯罪ターゲットに浮上している」と話した。

 ボイスフィッシングの発生件数は2020~21年の年間3万件余りから22年以降は同2万件余りに減った。警察はこうした傾向をボイスフィッシング犯罪の「専門化」の結果と見ている。流出した個人情報を活用した社会工学的な手口が次第に発達し、先端IT技術を活用する手口も増え、1人当たりの被害額が増えた格好だ。警察庁の朴星柱(パク・ソンジュ)国家捜査本部長は「ボイスフィッシングが疑われる場合、警察がすぐに金融機関に連絡し、送金をあらかじめ遮断し、後から解除できるよう法整備を推進する」と話した。

■ボイスフィッシングとは

 「声(voice)」と「奪い取る(phishing)」を組み合わせた言葉で、電話などで捜査機関や金融機関の関係者を詐称し、個人情報を盗み出したり、金銭を詐取したりする詐欺手法。最近はAIで映像や声を偽造・変造するディープフェイク、ディープボイス技術など手口がますます高度化している。

安相炫(アン・サンヒョン)記者、イ・ギウ記者

ホーム TOP