別再拿走我的臉!(二):關於Deepfake色情影像:雖然內容是假的,但傷害是真的|雷雅淇

雷雅淇

2022-02-08發佈

2023-02-18更新

別再拿走我的臉!(二):關於Deepfake色情影像:雖然內容是假的,但傷害是真的|雷雅淇

別再拿走我的臉!(二):關於Deepfake色情影像:雖然內容是假的,但傷害是真的|雷雅淇
quotationmark image

本系列專題「Deepfake 專題──別再拿走我的臉!」,由泛科學和法律白話文合作策畫。從Deepfake 技 …

quotationmark image

別再拿走我的臉!(二):關於Deepfake色情影像:雖然內容是假的,但傷害是真的|雷雅淇

本系列專題「Deepfake 專題──別再拿走我的臉!」,由泛科學和法律白話文合作策畫。從Deepfake 技術與辨偽技術、到法律如何因應。科技在走,社會和法律該如何跟上、甚至超前部署呢?一起來全方位解析 Deepfake 吧(全系列共七篇)

作者 : 雷雅淇 / y編。PanSci 總編輯。之前是主編,代號是(y.),是會在每年4、7、10、1月密切追新番的那種宅。中興生技學程畢業,台師大科教所沒畢業,對科學花心的這個也喜歡那個也愛,彷徨地不知道該追誰,索性決定要不見笑的通吃,因此正在科學傳播裡打怪練功衝裝備。

2021 年 5 月,鏡週刊的深度報導《臉被偷走之後——無法可管的數位性暴力?台灣 Deepfake 事件獨家調查》中,揭露了早在 2020 年就已經存在、利用 Deepfake 深度造假技術製作收費色情影片的 Telegram 群組,並訪問了數位影片中的受害女性。

2021 年 10 月,臺灣警方透過 Twitter 上的換臉色情影片追蹤到了該群組,逮捕了相關涉案人,「被換臉」的人除了名人之外,也包含一般人的換臉影片。此案在臺灣掀起了翻天覆地的討論,內容圍繞在 Deepfake 技術的濫用、和數位性暴力等相關議題。

到底 Deepfake 色情內容有多氾濫?而它又造成了什麼樣的傷害呢?

大部分的 Deepfake 影片都是色情內容

「Deepfake」指的是利用人工智慧深度學習技術,在某人沒有說過、拍過和錄過某些內容的狀況下,生成他的聲音、圖像或影片。(延伸閱讀:Deepfake 不一定是問題,不知道才是大問題!關於 Deepfake,你需要知道的是⋯⋯?

早在 2016 年,來自斯坦福大學、馬克斯普朗克研究所和埃爾蘭根-紐倫堡大學的研究人員,就已經創建了一個名為 Face2Face 的系統,透過捕捉演員的面部表情,在其他人臉上生成一樣表情的影像。不過,我們現在熟悉的「Deepfake」一詞,卻是 2017 年才現身;而且它最早的姿態,便是色情內容:由一位名為「deepfake」的 Reddit 的用戶,上傳的明星假性愛影片。

直到現在,網路上雖然不乏一些迷因、或是跟政治人物相關的 Deepfake 影片到處散播,而且數量越來越多,但 Deepfake 應用最多的,仍是色情內容。人工智慧公司 Sensity AI 的統計發現,自 2018 年以來,網路上的虛假影片每六個月成長一倍,截自 2020 年 12 月為止,他們透過自己的檢測技術,偵測到至少85047 個假影片在網路上流傳。

2019 年,Sensity AI(在當初的名稱為 Deeptrace)的報告統計,有 96%的 Deepfake 影片是色情內容,在色情網站上的內容幾乎百分之百都是以女性為主,被觀看次數超過 1.34 億次。由此可見,「色情內容」無疑是所有 Deepfake 應用中,內容最多、製造速度最快、傳播最廣的類型。

此外,儘管色情網站龍頭 Pornhub 指出,他們不會容許包含 Deepfake 影片在內的任何非自願性質的內容出現,但根據 Deeptrace 的統計,2019 年排名前十的色情網站中,有 8 個網站裡有 Deepfake 的內容,另外還有 9 個 only for Deepfake 的色情網站,而這些網站裡的內容,佔了 Deepfake 色情內容的九成以上。

雖然,這些影片中被換臉的主角通常是名人,但受到Deepfake 色情內容所苦的,不只有他們。

雖然內容是假的,但傷害是真的

2019 年 6 月 23 日,有一個叫做 DeepNude 的網站上線了:它提供可以免費下載的應用程式,並利用生成對抗網路(Generative Adversarial Network,簡稱GAN)技術,將女性有穿衣服的照片生成為裸照。雖然由它生成的照片都有浮水印,但只要付費就能把浮水印變小;重點是,它的使用方法很傻瓜,只需要一張女性的照片就行了,而且「穿越少」效果「越好」。

這個應用程式因為 Motherboard 的報導而爆紅,甚至一度因為下載量過大,導致網站不堪負荷。諷刺的是,Motherboard 報導的目的,原本是為了要批評 DeepNude 對於女性的傷害。雖然DeepNude 隨後在 6 月 27 日下架(其後又在同年 7 月 19 日以 30000 美元出售給匿名買家);但其應用程式直到今天,仍在一些開源社群、種子網站等地方被不斷的上傳下載。

2020 年,Sensity AI 發現了另一個與 DeepNude 很相似的 Telegram bot,只要向這隻機器人傳送照片,便能直接生成裸照、且可以透過付費,得到去除浮水印或免等候等服務。根據統計,這當中起碼有十多萬名女性被生成裸照,當中包含未成年人。雖然被報導之後,相關群組一樣已經被官方刪除,但這絕對不會是最後一次,Deepfake 被這樣惡性利用。

雖然 DeepNude 的創辦人表示,他當初設計這個程式的初衷,是被小時候在雜誌上看到的「X 光眼鏡」所啟發(其 logo 也是為此致敬),他有想過這個程式會不會傷害到人,但他也表示能用 DeepNude 做到的事,任何人用 Photoshop 也能做到;如果有任何人懷有惡意想要做壞事,那有沒有 DeepNude 並不會有影響。然而情況卻是,有人因為類似應用被威脅,甚至遭受到復仇式色情(原文:Revenge porn,本用詞為俗稱。目前有倡議應改稱「未經同意即散布之私密影像」──雖用字較長,但可避免簡化問題本質)的攻擊。

所謂「復仇式色情」,指的是未經過他人同意,任意散佈含有他人色情內容之照片或影片等影像的報復手段。美國心理學會的一項研究發現,每 12 名女性中,就有一名最終在她們生命的某個階段成為復仇式色情片的受害者。在過往,合意或是被偷拍的親密影像在非自願的狀況下外流就已經夠難防了,有了 Deepfake 之後就更難了:因為當事人根本不會意識到有這樣的影像的存在。而這些內容被用於勒索,甚或是威脅名人、記者等案例層出不窮。

「我要怎麼證明那不是我?我走在路上、搭捷運,可能有一些陌生人,他看我或交頭接耳的時候,我都會覺得,是不是他們看過那個影片?覺得我是那樣的女生?覺得我是很糟糕的人?」在鏡週刊的訪問中,被換臉的 Youtuber 球球這樣說道。儘管那真的不是自己,儘管內容是假的,但這類的色情內容造成的傷害卻是真實的。

波士頓大學法律學教授 Dielle Citron 在他的著作《網路空間裡的仇恨犯罪(Hate Crimes in Cyberspace)》中提到:Deepfake技術正在成為針對女性的武器,這些性愛影片當中的身體雖然不是自己的,卻會對當事人造成影響,讓他們不想再上網、難以獲得或維持工作、並且感到不安。

Deepfake 最大的傷害不是來自技術,而是使用方式

從大量資料到一張照片、從專家操作到素人也行、從粗糙到以假亂真,Deepfake 的技術一直進步,而這已然打開的潘朵拉的盒子,要關上的方法,也必然需要人與科技的協力。

從辨偽技術的進步(延伸閱讀:Deepfake 辨偽技術如何在魔高一尺時,能道高一丈呢?)、法規制度的更新(延伸閱讀:應對Deepfake濫用,台灣修正刑法夠用嗎?),到協助被害人刪除與爭取權益等制度的完善,以及不看、不擴散,多理解技術對社會可能的影響:在面對 Deepfake 色情內容所造成的傷害,沒有人是局外人。

(本文由泛科學授權)

【參考資料】

  1. Deepfake Porn Nearly Ruined My Life
  2. How to Detect a Deepfake Online: Image Forensics and Analysis of Deepfake Videos – Sensity
  3. THE STATE OF DEEPFAKES
  4. Deepnude: The Horrifying App Undressing Women
  5. 臉被偷走之後:無法可管的數位性暴力?台灣Deepfake 事件獨家調查- 鏡週刊Mirror Media
  6. Deepfake porn is ruining women’s lives. Now the law may finally ban it. | MIT Technology Review
  7. Deepfakes have got Congress panicking. This is what it needs to do. | MIT Technology Review
  8. A deepfake bot is being used to “undress” underage girls | MIT Technology Review
  9. Nonconsensual Pornography Among US Adults: A Sexual Scripts Framework on Victimization, Perpetration, and Health Correlates fo
  10. An AI app that “undressed” women shows how deepfakes harm the most vulnerable | MIT Technology Review
  11. Deepfakes have got Congress panicking. This is what it needs to do. | MIT Technology Review
  12. The biggest threat of deepfakes isn’t the deepfakes themselves | MIT Technology Review
  13. How to Detect a Deepfake Online: Image Forensics and Analysis of Deepfake Videos – Sensity
  14. The year deepfakes went mainstream | MIT Technology Review
  15. Inside the strange new world of being a deepfake actor | MIT Technology Review
  16. I Was The Victim Of A Deepfake Porn Plot Intended To Silence Me | HuffPost UK News

本專欄「娛樂文創與IP的距離」:是由威律法律事務所的周律師及魯律師組成。兩位深耕智財領域,從過去服務影視、音樂、動畫、遊戲、設計、出版、媒體行銷、演藝、體育、授權、藝術、數位內容等娛樂及文創產業的經驗,體認並倡導IP議題的實用性與重要性。

【知識新聞的力量】

我們堅持為所有人免費提供內容,因為我們深知,閱讀新聞的機會,不應有任何門檻,尤其是當人權議題備受矚目的時候,這常是推動社會進步的契機。然而,如果您有能力,《法律白話文運動》提供高品質的解釋報導,是推廣法律及人權思想的重要力量,每個月不到100元,我們就能在「官網」、「Facebook」、「Instagram」、「Twitter」、「Line Voom」、「Podcast」、「Reels」、「TikToks」、「實體活動」上發佈,沒有比這個更划算的選擇了。

熱門文章

最新文章

vertical logo

專注打造台灣法律文化的垂直媒體。

從法律認識議題,從議題反思法律。

社群媒體

文章投稿,請洽

editor@plainlaw.me

授權與商業合作,請洽

business@plainlaw.me

聯絡客服,請洽

support@plainlaw.me

未經同意,不得擅自利用本站內容。

Copyright © 2024 Plain Law Movement All rights reserved.

Powered by Welly SEO