|
|

2025年10月30日午前10時ごろ、バンコク・サーイマイ区の「สายไหมต้องรอด(サーイマイ・トン・ロート)」支援センターに、32歳の女性会社員が詐欺被害の相談に訪れました。女性はかつてオンライン販売を行っており、自身の写真や動画が何者かによりAI技術で複製され、本人になりすましてSNS上で被害者をだましていると訴えました。
被害者によると、10月初旬、友人から「TikTokで別名義のアカウントにあなたの動画が使われている」と連絡を受けて発覚。詐欺グループは彼女の映像や写真を用いて「AIディープフェイク」を作成し、本人と同じ名前・職業情報を設定。フォロワーは500人以上にのぼっていました。
その後、友人が偽アカウントに接触したところ、相手からビデオ通話がかかってきました。画面には本人そっくりの顔が映し出され、表情や動作まで極めて自然だったといいます。しかし会話の口調や声に違和感があり、AIによる映像であると判断。証拠として動画を記録しました。
女性は、詐欺グループがこのAI映像を利用して男性に投資話を持ちかけたり、性的なサービスを装って金銭をだまし取る可能性があると懸念。サムローンヌア警察署に被害届を提出しました。
支援を受けた「サーイマイ・トン・ロート」代表のエーガポップ・ルアンプラサート氏は、「AIを使った詐欺がここまで精巧になっているとは驚きだ。今回のケースでは、本人そっくりの顔で通話中に自然に会話が成立していた」と話し、警察に正式な調査を要請したと明かしました。
タイ警察サイバー局のチャッチャパンタカーン・クライクルン副司令官は、「AI技術で本物と見分けがつかない映像が容易に作られる時代になっている。知らない相手からのビデオ通話には応じず、電話番号を警察アプリで確認するなど慎重に行動してほしい」と注意を呼びかけています。
関連記事
新着記事