📍 地點:義大利
🗓️ 發生時間:2025年2月
🔖 標籤:#AI仿聲詐騙 #深偽技術 #社交工程 #高層冒充
📄 事件摘要:
詐騙集團利用AI深偽技術,模擬義大利國防部長克羅塞托的聲音,致電多位商界富豪,聲稱需緊急籌款支付贖金,以拯救被綁架的義大利公民。其中一位富商誤信詐騙,轉帳100萬歐元(約新台幣3,385萬元)至海外帳戶。該集團甚至偽造來電號碼,冒充國防部長幕僚,增加詐騙的可信度
🔍 資安觀點:
此案例凸顯AI深偽技術在詐騙中的潛在風險。攻擊者能夠模擬高層官員的聲音,結合社交工程手法,對目標施加心理壓力,迫使其在短時間內做出決策。企業和個人應加強對來電身份的驗證,避免僅依賴聲音辨識,並建立多重驗證機制,以防範此類詐騙。
📍 地點:台灣
🗓️ 發生時間:2023年12月
🔖 標籤:#AI仿聲詐騙 #深偽技術 #社交工程 #家庭受害者
📄 事件摘要:
藝人夫妻王仁甫與季芹接到一通來電,電話中傳來「女兒」的哭喊聲,聲稱自己遭遇困難,需要金錢援助。季芹感到疑惑,掛斷電話後立即聯繫女兒,確認女兒安然無恙,才發現這是一場AI偽聲詐騙。事後推測,詐騙者可能先以「市場調查」為由,收集女兒的聲音樣本,再利用AI技術合成聲音進行詐騙。
🔍 資安觀點:
此事件凸顯AI偽聲詐騙的潛在風險,詐騙者利用AI技術模仿親人聲音,結合社交工程手法,對受害者施加心理壓力,迫使其在短時間內做出決策。家庭成員應提高警覺,建立安全驗證機制,避免僅依賴聲音辨識,以防範此類詐騙。