如果有一天,你在網絡上發現自己全身赤裸的影片在瘋傳,你會有何感受?錯愕?憤怒?傷心?明明自己沒有拍攝過相關影片,怎麼會成為成人影片中的主角,任由廣大的網民隨意觀看。無錯,你很大機會被「Deepfake」了!
近月,台灣著名YouTuber「小玉」涉嫌利用深度偽造(Deepfake)的技術,將多名公眾人物的頭像移花接木到AV女優身上,製作成性愛影片對外出售而被捕。受害人高達百人以上,當中除了台灣網絡紅人「雞排妹」鄭家純及理科太太等等外,更有黃捷等政治人物同樣遭到換臉。相關的成人影片迅速在網絡上流傳,除了對受害人的聲譽造成損害,大眾更對A.I.人工智能的Deepfake議論紛紛。
「科技的運用,是為了創造人類更好的生活,而非用來傷害他人。」台灣總統蔡英文對相關事件表示關注,她認為而從幾年前起,台灣政府一直積極打擊網絡罪行,澄清虛假資訊,未來更打算修訂刑法提案,加大Deepfake相關罪行的阻嚇性,保障社會大眾利益。
不單單只是台灣,早於2017年歐美等地區也曾出現一次造假色情片的風波,不少著名的女明星也被人改頭換面成色情影片中的主角,當中包括電影《神奇女俠》女主角姬·嘉鐸(Gal Gadot)、美國人氣歌手泰勒絲(Taylor Swift)、電影《哈利波特》演員愛瑪·屈臣(Emma Watson)以及美國前總統夫人蜜雪兒·歐巴馬(Michelle Obama)也不能幸免。由此可見,被Deepfake的對象甚為眾多,假若不加以阻止的話,會有更加多的受害人,可能是你認識的人、朋友更甚可能是你自己。
在本港,傳媒在網上討論區發現,有不少平台轉載收費色情影片的連結,其中更發布大量涉及影視女星、歌手、網絡紅人被移花接木的色情影片。甚至有收費頻道,以Deepfake製作私人色情影片,買家只需提供任何人的相片或影片,或其社交媒體帳戶,製片人便能夠套取影像素材,把指定對象轉換成影片中的主角。事實上,網上平台的性罪行及性暴力等問題屢見不鮮,而不法之徒更利用 Deepfake製作以假亂真的色情素材,情況值得關注。
網絡應該是讓人發揮創意的平台,而非加害他人的工具。Deepfake的確是一把雙面刃,好處多不勝數,但若被誤用,產生的禍害可以是無窮不盡,就如上文提到的色情影片風波。要阻止這些誤用Deepfake的情況,我們可以多了解Deepfake 原理與如何保護自己,學習做個有智慧的網絡公民。
AI 技術 : Deepfake 原理與防範策略
什麼是Deepfake?深度偽造使用一種深度學習(Deep Learning)的人工智能形式來製作虛假事件(Fake)的內容。Deepfakes 可以細分為兩大類—視頻 deepfakes 和音頻 deepfakes:
Deepfake造假視頻
要創造深度偽造影片,這項技術會分別學習如何對兩張不同的臉進行編碼和解碼,例如將一張人臉破解並重建,以取代原來影片中的原始角色,最終生成像真度極高的偽造影片。無論是換臉、控制嘴唇、偽造聲音、影片,深度偽造技術通通能模仿、合成以及竄改。假如你有玩過一些「變臉」Apps,應該對DeepFake的強大功能並不陌生。
Deepfake造假音頻
要製作Deepfake音頻,需要清晰記錄要模擬的聲音。這些錄音一般需要2.5-3個小時的錄音,不可有任何中斷或環境噪音。雖然製作過程需要很多時間,但產生的音頻聽起來像是自動化的機械聲音,需要再通過神經聲碼器(Neural vocoder)進行處理,使其聽起來更逼真。A.I.透過深度學習,可模仿對象的音色、音調、節奏、說話的流暢度和呼吸,甚至可表達情緒,製造虛構的錄音,令人難分真假。
防範深度偽造策略
應用Deepfake 的道德與社會爭議日益嚴重,Deepfake技術已經被惡意利用,損害個人信譽或散播誤導性資訊,甚至產生更可怕的犯罪,造成社會動盪。故此,我們必須學習如何免受深度造假的威脅:
-
預防意識
認識何謂深度造假及騙徒會如何利用它們來勒索金錢和傳播虛假訊息,了解造假內容的傳播途徑和最新內容,有意識地辨別資訊真偽,保持警覺。
-
觀察破綻
雖然Deepfake非常厲害,可以瞬間讓人改頭換面,看似完美無暇,但其實這項技術並非毫無破綻,以下是一些分辨影像真偽的方法:
-
觀看眼睛虹膜顏色:Deepfake處理人臉時可能會捕捉錯誤的影像,在光影不協調的情況下,導致呈現的雙眼虹膜的顏色不一,曝露造假的破綻
-
留意名人的行為習慣:名人經常成為Deepfake合成影片的受害者,我們可以比較影片中人物習慣性的微表情和小動作,去判斷影片中人物的真偽
-
注意環境的陰影:Deepfake技術並非十全十美,在輸出影像時可能對環境產生扭曲的「偽影」,例如:影片人物與背景之間有奇怪的陰影