一線女星下海拍A片 AI借臉大賺黑心錢
列印


2019-09-15

〔記者劉慶侯、吳政峰/台北報導〕最近網路上不斷轉傳台灣知名女藝人「下海拍A片」的真槍實彈影片,不少民眾看過影片,驚訝於「好像真的是她!」實則該名加入國外人氣團體的台籍貌美女藝人,是被南韓AV影視業者「借臉」,利用新科技「Deepfake」技術,將她面容「完美地複製」在色情片女演員面部上,因五官、表情等特效太逼真,讓人看不出是「變臉」影片,也使該片成為近來最夯的網路瘋傳「AV鉅片」。

法界人士說,知名藝人臉貌被AV業者拿來當成商品行銷,已侵害女藝人肖像、人格權等,女藝人是名副其實的受害人,若提告,AV業者在刑事、民事方面都有責。

南韓AV業 用Deepfake黑科技搞鬼

所謂的Deepfake,是英文「deep learning」(深度學習)和「fake」(偽造)的混成新詞,專指藉助人工智能抓取特定對象大量的影片、照片,組合而成的人體圖像影像合成;昔日在專業用詞上,被稱為「人類影像合成(Human image synthesis)」技術。

片頭說明是深度偽造 不能免責

南韓AV業者製作的這支影片,7、8月間被放在其專屬網站而流出。影片剛開始仿日本A片播放一段類似FBI警語,警告不要公開播映和盜拷;業者又以英文和韓文打出一段「自圓其說式解釋文」,指這支影片被稱為「深度偽造」,是利用人工智能技術創造生成,只被用於娛樂和教育目的上,以及不應被未成年者觀賞等,意圖規避法律責任。

影片有3段,每一段約4分鐘,封面全裸女郎不知名,但影片裡的女主角赫然激似台籍女藝人,一般觀眾幾乎完全看不出是經過「變臉」的特效片,多會認為真的是本尊,或至少認為AV業者太神通廣大,能找到和該名貌美明星長相如此相似的女子演出;只有對人類影像合成技術熟悉的人,才嗅出了「真相」。

以為是真人 網路瘋傳「AV鉅片」

據熟悉AV業界的人士說,這個南韓AV色情網站近年來利用最新Deepfake技術,大量合成偽製各個南韓當紅女影歌星,成為AV片女主角,南韓女星IU也是受害者之一。

至於該名台籍女藝人,因知名度高、人氣旺,大量蒐集她的影像、照片非常容易。業者在「材料豐富」前提下,使用Deepfake技術輕易生成栩栩如生的女藝人動作影像,再被用來做為牟利工具。

由於Deepfake的技術被濫用,近來開始引發外界注意,但目前尚不清楚南韓檢警有無接到受害人報案或主動分案偵查。

  • 台灣知名女藝人被色情業者用時下最新科技「Deepfake」,將她的面貌「完美地複製」後,「換到」色情片女演員身上。(記者劉慶侯翻攝自網站)

    台灣知名女藝人被色情業者用時下最新科技「Deepfake」,將她的面貌「完美地複製」後,「換到」色情片女演員身上。(記者劉慶侯翻攝自網站)

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法