即時 熱門 政治 軍武 社會 生活 健康 國際 地方 蒐奇 影音 財經 娛樂 藝文 汽車 時尚 體育 3C 評論 玩咖 食譜 地產 專區 求職

上司來電要求匯620萬 AI深偽變聲騙過執行長

2023/12/31 05:30

AI深偽(Deepfake)科技犯罪手法不只用於變臉,也用於變音裝熟騙錢。 (刑事局提供)

自認熟悉上司聲音 未起疑

〔記者邱俊福/台北報導〕一家外商公司的執行長,日前接到英國母公司上司一通電話,要求他緊急將六百廿萬元匯至指定供應商的帳戶,執行長自認為對上司的聲音相當熟悉而不疑有他,依指示派人轉帳,事後始知遭遇深偽變音詐騙。刑事局預防科提醒,歹徒聲音可能透過聲音轉換(Voice Conversion)的技術偽造,才得以輕易詐騙得手,民眾應慎防這類AI深偽(Deepfake)科技犯罪手法,避免上當。

派人轉帳後 才知被騙了

刑事局表示,深偽科技詐騙案件目前在國內案件並不多,近期最引起注意的是,上月中旬首度出現以總統參選人製作的假影片於網路社群流傳,內容為攫取總統蔡英文及參選總統的副總統賴清德的公開受訪、演講的舊影片,透過變臉、換臉深偽技術,將嘴唇部分置換,聲音也刻意模仿製成,形成親自現身鼓勵投資加密貨幣的假影片。

由於該影片內容出現許多中國用語,警方研判幕後製作者是中國人士,以AI新技術實施假投資詐術,但也不排除幕後有抹黑參選人、攪亂選情等其他企圖。

金融界聞人被詐兩千萬

此外,今年四月間,金融界聞人鍾文智在通訊軟體Telegram(簡稱TG)接到友人來電,因他不知友人TG帳號被盜,加上詐團擷取友人的語音「喂!」聲音使詐,致電向鍾借貸。該語音不排除也是透過AI深偽科技手法,讓他從聲音誤認對方是友人而降低戒心,慘被詐走二千一百萬元。

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法

看更多!請加入自由時報粉絲團
TOP