「深度偽造」(Deep Fake)技術利用人工智能進行人體圖像合成,基本上是將已有的圖像或影片「疊加」(Superimpose),從而偽造出一套仿真度超高的圖像或影片。例如,麻省理工《深度學習入門》課程的第一課,老師利用「深度偽造」開發了一段美國前總統奥巴馬發言的錄像,內容是由他親身介紹「深度學習」。儘管總統對人工智能科技一竅不通,但錄像卻栩栩如生,初接觸者都信以為真。
「深度偽造」把人工智能技術發揮得淋漓盡致,可惜它卻經常被不法之徒使用,例如偽造名人的性愛影片,以及散播「假新聞」,近年多不勝數,全球瘋傳。在政治上,去年美國總統選舉期間,特朗普及拜登雙方的支持陣營都發放不少「深度偽造」的假新聞,打擊對方的聲譽。
有網民認為自己並非知名人士,也非政客,絕對不是黑客的攻擊目標,因此「深度偽造」對他們影響不大。不過隨着此技術最近又有新進展,功能進一步提升,已經被應用於大眾的日常生活之中。「臉書」的人工智能組(Facebook AI)推出「文字風格刷」(Text Style Brush)技術,用戶只需要提供數個手寫字串,「文字風格刷」便能學會他寫字的筆風,之後便可以為所欲為,以同一樣之寫字風格進行大規模抄寫,以假亂真。
除了數碼版的抄寫員之外,抄寫機器人的研究也炙手可熱。中小學生得悉這發明當然十分之雀躍,他們熱切期待這發明能盡快被轉化為產品,解決他們被老師罰抄之苦。然而,在工商業界的應用場景中,這技術推出之後,文件被冒簽的風險便難以避免,影響營商。
現實生活中,「深度偽造」技術會引發道德和法律問題,首當其衝的是「侵犯版權」,受害者的圖像在未經他人同意之下被濫用,也會導致當事人的「私隱外泄」,所造成的後果可大可小,偶一不慎會令受害者聲譽受損,甚至乎家庭破裂。另外,偽造的「失實謊言」不但會影響當事人,很多時也會影響整個社會,例如煽動種族仇恨便是其中駭人聽聞的例子。
另外,有網民認為「深度學習」是人工智能版的「二次創作」手法,能提供無限創意空間,但筆者對這觀點不以為然。「深度偽造」背後的基礎技術是「深度學習」,這技術的核心任務,是從既定的訓練數據中,利用科學算法去學習輸出及輸入數據之間的配對模型,之後用戶便可以利用該模型,為未來新輸入的數據進行輸出的推算。古語道:「熟讀唐詩三百首,不會作詩也會吟」,利用「深度學習」所訓練出來的人工智能系統,在預設應用範圍內運作是絕對可行的,不過當系統遇上從未學習過的輸入數據時,它便可以會推算失準,因而作出錯誤的決定。理論上人工智能系統的研發目標是「機器代人」,而「深度學習」主要集中在輸入與輸出的配對而已,做法無疑窒礙創意,影響人工智能的應用原創性。
「水能載舟 亦能覆舟」,「深度偽造」並非一面倒只具破壞性,問題在於使用者的出發點,例如有藝術工作者利用這技術把已故的明星「重生」,出現在電影中,增加電影的可觀性,上述奧巴馬介紹科技的短片便是類似的成功個案。歸根究柢,「深度偽造」一詞帶有誤導性,把這項先進人工智能技術貼上了負面標籤,令一般人視之為不良的算法。
因此,筆者建議業界改名,把這技術中性地稱為「深度模仿」,這將有助釋除大眾不必要的疑惑。
(文章觀點僅代表作者本人)
作者為香港中文大學工程學院副院長(外務)
來源:星島日報