人工知能の技術発展につれて、「ディープフェイク(Deepfake)」が詐欺メッセージやフェイク動画・音声などのメディア素材で生成し、顔や声を入れ替える効果に達成することに利用されている。詐欺手法の強化にもつながり、本当かウソかの区別も難しく、騙された人数が増えたのが現状。振込を要求する電話があれば、まずは通話を一時停止して、他の連絡方法で相手を連絡して真偽を確認すべき。警戒心を抱き、詐欺にかかるのを防止しよう。ディープフェイク技術宣伝動画https://drive.google.com/drive/folders/1-4VtuvxN_Kz5x5KtzEVztTuqMfwClIM3
人工知能の技術発展につれて、「ディープフェイク(Deepfake)」が詐欺メッセージやフェイク動画・音声などのメディア素材で生成し、顔や声を入れ替える効果に達成することに利用されている。詐欺手法の強化にもつながり、本当かウソかの区別も難しく、騙された人数が増えたのが現状。振込を要求する電話があれば、まずは通話を一時停止して、他の連絡方法で相手を連絡して真偽を確認すべき。警戒心を抱き、詐欺にかかるのを防止しよう。
ディープフェイク技術宣伝動画
https://drive.google.com/drive/folders/1-4VtuvxN_Kz5x5KtzEVztTuqMfwClIM3
2023-06-02