當 AI 懂得把色情影片移花接木,會帶來甚麼倫理和法律問題?

評論
Photo Credit: Depositphotos
Photo Credit: Depositphotos
評論

本文來自 關鍵評論網 ,作者 Kayue,INSIDE 授權轉載

2017 年 12 月,《Motherboard》報導在討論區 Reddit 上,一名使用者 deepfakes 貼出色情影片,女主角看來是飾演「神力女超人」的加朵(Gal Gadot)。不過,這並非情慾短片外洩,而是 Deelfakes 透過機器學習技術,把加朵的臉配上影片原本女角的臉上,從而製造出來的假色情片。

其後,另一名帳號為「deepfakeapp」的使用者,利用 deepfakes 的演算法製作了應用程式,讓所有人都能輕易以自己的數據把影片主角「換臉」。在接受訪問時,deepfakeapp 表示他的目標是讓沒有技術背景、編寫程式經驗的人都夠使用 deepfakes 的技術。

現在 Reddit 上一個稱為「deefakes」的分類,專門討論 deepfakes 的演算法,亦有人貼出他們的「成果」——多數是把名人樣子移花接木到色情片上。幾天前,有部分使用者——包括 deepfakes 本人——把尼古拉斯基治(Nicholas Cage)放到不少電影片段中,不過看來他們的興趣又回到製作假色情片上。

假色情片勢必變得更流行

要使用演算法製作假色情片,使用者需要找到「目標」的大量照片來訓練神經網絡,名人自然比較多相片可以使用。不過現時不少人的社交網站上均有大量照片,普通人同樣可以被移花接木到其他影片上。

早前《Motherboard》亦報導,有人在網上討論把他們認識的人放到色情影片中。例如有人宣稱從一位同學的 Facebook 及 Instagram 帳戶上,取得她大約 380 張照片,再製作了一段「不錯」的影片——相信一如不少人貼出的假影片一樣,未有取得對方同意。

這項技術未來相信會更加普及,所製作的影片亦更加逼真,這就帶來相應的倫理及法律問題。正如相機及網絡普及後,在未經對方同意下發放其私密影像的「復仇式色情」(revenge porn)問題變得流行一樣。

如果有人在未獲對方同意下,就將其樣貌放到色情影片中,再把影片發布,而且影片看來非常真實,那到底有沒有侵犯了他人的權益?

各地未有相應法例

以數碼方式修改、偽造色情影像並非新事物,例如現時網絡上有大量透過 Photoshop 移花接木的明星裸照。不過技術發展突飛猛進,非自願偽造色情影像未來將更逼真,而且亦變得容易,帶來的影響更深遠。即使是虛構影片,對當事人帶來的困擾可能跟未經同意被發布私密影像一樣真實。

公眾人物的照片被挪用作商業用途時,可以控告對方索償,但假色情照方面,照片版權未必由明星擁有,而且明星可能想避免引起大眾注意假色情照,而不提出訴訟。此外,有關網站往往寫明是假照片,或更難提出誹謗訴訟。

雖然有人曾因為把他人樣貌加工到色情照片而面臨法律後果,但涉及的法律並非專為這種行為而設。

2014 年底,澳洲一名男子被揭以 Photoshop 修改照片,將繼女樣貌配上跟他有性行為的成年女子身上,以及製作一張她跟狗進行獸交的假圖片。這名男子 2015 年被捕,今年 1 月中被判入獄兩年,如表現良好可在一年後獲釋,此前他亦因在繼女睡覺時觸摸其性器官而被判緩刑。

該名男子曾指那些照片是「藝術品」,又稱圖片背後沒有任何性方面的動機。最終他的四項罪名成立,包括在澳洲外管有或製作兒童色情物品,以及未經批准下進出口令人反感的物品。

在英國,專門負責誹謗、私隱及騷擾案件的律師坎貝爾(Max Campbell)則表示,偽造色情影像可能屬於騷擾或惡意通訊。去年英國 M&G 投資管理公司一名員工,就因為將偽造女同事的色情照片再貼到色情網站上,而被控騷擾罪。被告否認控罪,案件仍在審訴當中。

法律未必能保障受害人

有些時候,受害人甚至無法追討。在美國新澤西州,27 歲的克魯澤(Katie Krausz)過去 8 年開始新工作或有新戀情時,都會揭露網上有自己的假裸照。她曾經報警,但當地警方調查後表示,除非有人在未經照片主角同意下使用照片,才算侵犯其私隱。

克魯澤表示,檢查部門曾告訴她無法證明有犯罪行為,她亦曾聯絡當局希望協助移除圖片,但圖片仍然在網絡上,這些照片仍然困擾著她。她更指當在面試中講出此事時,十次有九次對方均會在她面前打開電腦搜尋照片,令她非常尷尬。

有些地方已有針對「復仇式色情」的法例,但相關條文未必涵蓋偽造的色情影像。專門研究網絡騷擾、言論自由等議題的邁阿密大學法律學院教授法蘭克斯(Mary Anne Franks)建議,立法機關應更新反誹謗的條文,以處理相應情況。但她亦認為,要證明影像製造者意圖引起受害人情緒困擾有一定困難。法蘭克斯慨嘆,現時的社會文化遠遠未到達討論有關議題的地步。

無論是假色情片抑或復仇式色情,單憑刑罰阻嚇並未能全面幫助受害人,更重要的也許是在網絡上辨認及移除有關影像的技術、機制,以免影像繼續流傳造成傷害。然而香港及台灣兩地,目前均未有充分的相應法律保障復仇式色情受害人,遑論討論如何處理偽造的色情影像。除了法律條文外,觀乎多次情慾照片外洩時的反應,社會文化對待受害人的態度同樣有待改善。

網絡平台取態或影響假色情片發展

今日《Motherboard》報導,其中一個被用來放假色情影片的 GIF 平台 Gfycat,已開始移除有關影片。Gfycat 發言人向《Motherboard》確認,他們認為假色情影片「令人反感」,並根據使用條款移除有關內容。

早前聊天平台 Discord 亦開始封鎖討論製作假色情影片的伺服器,但色情影片網站 PornHub 上仍然有大量假色情片,「源頭」Reddit 亦未有問應關於假色情影片的查詢。各個網絡平台如何取態尚未可知,不過可以肯定的是,網絡上沒有甚麼能夠完全禁絕。

延伸閱讀:


精選熱門好工作

平台客服人員

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

外場服務人員

Sugar Pea
臺北市.台灣

獎勵 NT$4,000

Shopee APP - 產品用戶體驗部專員 / Customer Experiences Management

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

評論