聲紋識別原本是用於身分驗證與安全辨識,但在生成式AI與開源工具的推動下,門檻大幅降低。攻擊者可以透過以下方式取得可模仿的語音素材:
企業客服、內部通訊未加密
如LibriSpeech、VCTK可用於模型訓練
蒐集語音樣本:從社群平台、會議記錄、影音資料中取得目標聲音。
訓練AI模型:利用聲音合成技術(如Voice Cloning)生成模擬聲音。
建立詐騙情境:撰寫劇本、準備假帳號或冒名身份。
實施社交工程:以語音訊息、電話或即時通話與目標互動。
騙取金錢或敏感資訊:要求轉帳、提供OTP、一時情緒勒索。