別傳換臉色情片!將利益建築在他人痛苦 賴品妤:小玉極度可惡
2021/10/19 21:46
〔即時新聞/綜合報導〕網紅「小玉」朱玉宸涉嫌用AI深度造假技術(Deepfake)將眾多知名公眾女性「換臉」合成於情色片上。多名藝人、實況主、政治人物深受其害,對此民進黨立法委員賴品妤針對數位性暴力呼籲,「不要發布、不要轉傳、不要訕笑」防止傷害擴大。
刑事局日前破獲國內一個專營換臉AV片的「台灣網紅挖面群組」引起社會譁然。賴品妤指出,根據AI新創Deeptrace的報告顯示,網路上有高達96%的deepfake影片是未經當事人許可下合成的色情影片。
賴品妤表示,她在先前因應情侶分手後「報復性色情影片」問題,提出了「性隱私影像侵害犯罪防制條例」,當報復性色情影片遇上deepfake,更是造成更多權利的侵害。
賴品妤指出,在五月的時候就注意到相關的報導,並就這其中涉及的犯罪態樣一一了解,著手進行相關法規的研議。賴品妤認為,「科技的妥善應用可以讓人的生活更便利,但像網紅小玉這樣不當應用,把自己的利益建築在他人的痛苦上,是極度可惡的行徑」。
賴品妤說明,自己除了會持續提出相關立法之外,也呼籲無論您透過任何管道或方式取得這些不雅影片,請不要發布、不要轉傳、不要訕笑。因為這些行為對於受害者都會造成莫大的痛苦,讓我們一起防止受害範圍擴大。
賴品妤也提醒行政院,務必!盡速!研擬相關管理法規及措施。