上司來電要求匯620萬 AI深偽變聲騙過執行長

AI深偽(Deepfake)科技犯罪手法不只用於變臉,也用於變音裝熟騙錢。 (刑事局提供)
自認熟悉上司聲音 未起疑
〔記者邱俊福/台北報導〕一家外商公司的執行長,日前接到英國母公司上司一通電話,要求他緊急將六百廿萬元匯至指定供應商的帳戶,執行長自認為對上司的聲音相當熟悉而不疑有他,依指示派人轉帳,事後始知遭遇深偽變音詐騙。刑事局預防科提醒,歹徒聲音可能透過聲音轉換(Voice Conversion)的技術偽造,才得以輕易詐騙得手,民眾應慎防這類AI深偽(Deepfake)科技犯罪手法,避免上當。
派人轉帳後 才知被騙了
刑事局表示,深偽科技詐騙案件目前在國內案件並不多,近期最引起注意的是,上月中旬首度出現以總統參選人製作的假影片於網路社群流傳,內容為攫取總統蔡英文及參選總統的副總統賴清德的公開受訪、演講的舊影片,透過變臉、換臉深偽技術,將嘴唇部分置換,聲音也刻意模仿製成,形成親自現身鼓勵投資加密貨幣的假影片。
由於該影片內容出現許多中國用語,警方研判幕後製作者是中國人士,以AI新技術實施假投資詐術,但也不排除幕後有抹黑參選人、攪亂選情等其他企圖。
金融界聞人被詐兩千萬
此外,今年四月間,金融界聞人鍾文智在通訊軟體Telegram(簡稱TG)接到友人來電,因他不知友人TG帳號被盜,加上詐團擷取友人的語音「喂!」聲音使詐,致電向鍾借貸。該語音不排除也是透過AI深偽科技手法,讓他從聲音誤認對方是友人而降低戒心,慘被詐走二千一百萬元。