聲音比影像更易騙 張口就借錢要查證
2023/12/31 05:30
AI深偽(Deepfake)科技犯罪手法不只用於變臉,也用於變音裝熟騙錢。 (刑事局提供)
〔記者邱俊福/台北報導〕深偽(Deepfake)影像技術的進步,有別以往的眼見為憑,現已不復見,倘若運用在電影拍攝還原或改變演員容貌,能夠創作出更多元精采的影視作品,然而卻有不肖人士將此技術運用於詐騙,透過換臉、變聲效果行騙,其中,變聲因所需的樣品數較少,對詐團來說更加容易,成為「猜猜我是誰」老套電話詐欺手法的新工具。
刑事局表示,最早「深偽」專用於替換人臉的軟體名稱,以「自動生成編碼器」的深度學習系統為基礎,以人工智慧掌握對象的特徵點,訓練判別生成高度相似的臉孔影像或聲音,目前「深偽」已經成為利用深度生成技術生成影像、聲音、文字等多媒體內容的總稱,包括臉部特徵變換、性別與年齡轉換、圖像風格轉換。
深偽科技近年迅速發展,卻也被騙徒順勢當作犯罪工具,利用深偽影音詐騙金錢、感情案例逐漸增加。
就製作假影片換臉而言,因臉部有角度、光線等等許多不同的特徵點,變化較多,須取得大量樣本數才能成就較為完整的深偽影像,盡量趨近於當事人,由於名人、明星等公眾人物的樣本較為容易取得,多用於假冒名人詐騙案。
聲紋樣本需求低 仿聲容易
而單純的聲音深偽的犯罪手法,因音頻、聲紋等特徵較少,樣本需求較低,對詐團而言相對容易,因此,刑事局提醒,民眾接到親友或不熟的人來電甚至視訊通話,一開口就請求借錢或匯款,就應提高警覺,以其他方法聯繫對方,並多方查證,以免上當受騙。
-
貨櫃車過彎撞破濱海公路護欄翻落邊坡 女駕駛送醫不治
-
台南永康工廠火警2傷 大鋼牙進場處理殘火
-
金智媛、周杰倫出席精品店開幕北市警取締違停 警車倒退嚕撞上475萬賓士
-
桃市逾4成5溺水發生在靜態水域 消防埤塘搶救演練出動遙控救生圈
-
彰市路口圓形綠燈亮起車沒移動挨罰 駕駛轟「根本陷阱」
-
台中西屯工人浴室施工 不慎遭電擊送醫
-
為收容人加油打氣 基隆監獄邀公益身障團體演出
-
竊嫌交保天氣太熱又偷機車代步 警在公園人贓俱獲
社會今日熱門
看更多!請加入自由時報粉絲團