文|黃錦輝
本文就AI一詞提出另類的解讀,讓讀者能從多角度反思此技術的功能。
首先,“A”可以有兩種解讀:一是傳統的Artificial,即是“人工”所為的;二是Alien“異形”,這裡指的並非電影中的“外星人”,而是指“破壞者”所為的“壞人工”。而“I”也同樣地可以有兩個意思:一是傳統的Inteligence,即“智能”,用作形容聰明的、正確的思維;二是Ignorance“愚能”,簡單而言正是“智能”的相反。這些解讀並非筆者信口雌黃,是有根有據的,出自於多個國際研究課題。以上解讀引的不同配答會帶出四個不同的AI定義。
“人工愚能”誤判後果嚴重
(1)“人工智能”(Artificial Intelligence)技術全球炙手可熱,應用遍布各行名業。它是由美國電腦科學家麥卡錫(John McCarthy)於1956年首次提出的,目的是研究如何讓機器(軟硬件)展現類似人類的智能,並能從經驗中學習、解決問題的科學及工程學科。“人工智能”是普羅大眾認識的AI定義,其終極目標是透過“圖靈測試”(Turing Test)而達致“機器代人”的願境。
(2)“人工愚能”(Artificial Ignorance)是指人類製造的愚蠢,主要是由“無知”而產生。“無知”只是缺乏知識,但不一定是代表甚麼壞事。事實上,每個人都會對某些事物一無所知或了解不深。但從“機器代人”目標來看,一個愚蠢無知的機器人所作出的決定,非常危險。例如在醫療領域,如果診斷模型因偏差而誤判的話,後果可能極為嚴重,影響健康甚至乎性命;在金融場景中,如果演算法過度依賴歷史模式的話,極端情況下可能加劇系統性風險;在企業管理中,如果決策者過分依賴建議的話,就可能因缺乏背景常識而導致方向性的失誤。因此,“人工愚能”凸顯了AI的潛在缺點,提醒AI用戶“人在迴圈”(Human In The Loop,HITL)的重要性。
人類必須對AI生成的回應保持清醒,謹慎監控,刪除因“無知”而生成的“愚蠢”、不盡不實的回應,減低“人工智能安全”風險(註:“人工智能AI安全”是國家安全中20大範疇之一)。
“異形智能”戰場殃及無辜
(3)“異形智能”(Alien Intelligence)。最近哈佛大學理論物理學教授勒布(Avi Loeb)提出“異形智能”(Alien Intelligence)的觀點。與電影系列《異形》(Aliens)類同,來自“外星”的“異形”怪物能量超高,破壞力極強,不時襲擊人類。勒布教授相信未來“異形智能”亦同樣會衝擊人類的智能。當前AI應用猶如水銀瀉地,無孔不入;它的運作及文化很容易會操控人類的行為及思想。例如,以色列AI武器(例如“香薰草”,Lavender系統)載有行軍作戰知識,用作引導以軍襲擊行動,然而它在戰場上誤中副車的實例卻多不勝數,殃及無辜。因此,“異型智能”對世界的影響極度深遠,全球都非常擔心。泰國前副總理兼外交部長Don於6月初在香港舉辦的“博鰲亞洲論壇國際科技與創新論壇2025年香港會議”中致辭,強調“異形智能”的殺傷力,對人類構成極大威脅。因些,他認為“AI向善”(AI for Good)對人類尤其重要,人類必須遏制“異形智能”的風險,防止“異形”(破壞者)企圖控制人類。
(4)“異形愚能”(Alien Ignorance)顧名思義是指破壞者利用AI技術例如深度學習(Deep Learning,DL)中的無知漏洞,破壞AI的智慧,刻意製造“愚蠢”、能力極差的機器人,使AI弄巧反拙造成“機器愚人”。“機器愚人”不禁讓筆者聯想起英國作家奧威爾(George Owen)於1949年的政治諷刺小說《一九八四》,當中的“真理部”(Ministry of Truth)。這個部門主要負責根據“大洋國”政府對當時現實及宣傳需要,改寫歷史文獻、報紙及文學等著作。但實際上是“大洋國”領導人“老大哥”(Big Brother)因應所需,強行偽造的“真理”而已。
“異形愚能”成破壞者武器
在今天AI世代,資訊刪改、文化洗腦等行為實在是易如反掌。當前世界大亂,以巴衝突、俄烏戰爭、南北韓對峙、南海爭議等各參與國字都在實體和虛擬戰場上激鬥,“異形愚能”會是他們的尖銳武器。同樣地,“異形愚能”亦會是商業非法分子用作詐騙之炙手可熱的高新科技。
總體而言,“人工智能”面對“幻覺”(Hallucination)、“黑箱”(Black Box)、“偏見”(Biased)等3大技術問題,暴露出系統“無知”的弱點。它們都是“異形”(破壞者)的目標,會設法從中輸入壞資訊及知識,破壞社會安寧。國際AI組職必須攜手合作,杜絕這些高危的行為。
---------------------------------
【知識庫】人工智能“黑箱”是甚麼?
•在人工智能裡,“黑箱”(Black Box)指一種看得到輸入和輸出,但無法清楚理解中間怎麼運算和做決策的模型或系統。
•模型會給你一個看起來有用的答案,但人類通常說不出,它到底是怎麼一步步得出這個答案的,這種“不透明的決策過程”就是黑箱問題。
•如果用黑箱模型來做醫療診斷、放貸審批、司法判決輔助等,使用者可能會問:“為甚麼是這個結果?”卻得不到可理解的理由。
•愈來愈多國家和行業要求“可解釋性”,希望把黑箱變得更透明,至少能說出哪些特徵或因素影響了決策。

(作者係立法會議員、香港中文大學工程學院副院長(外務)、香港專業及資深行政人員協會副會長,文章僅代表個人觀點)
今日熱搜
查看更多



