文 | 黃錦輝
人工智能(AI)技術發展一日千里,為社會和產業應用注入了無限的想像。無論是“自然語言處理”(Natural Language Processing, NLP)、“圖像識別”(Image Recognition),還是“推薦系統”(Recommendation System),人工智能都展現出前所未有的效率和能力。但舆此同時,人們愈來愈多地感受到人工智能的另一面,道些系统在展现“聰明(intelligence)的同時,也常常表現出近乎“愚蠢”(lgnorance)的一面。學界舆業界將遣種現象稱為“人工愚能”(Artihcial lgnorance)。實際上,·“人工愚能”並非輕描淡窝的調侃,而是揭示了人工智能愿用中不可忽视的局限,·官、產、學、研各界絕對不容忽视。
“人工愚能”的表現形式多樣。例如“生成式人工智能”(GenAI)能生成流暢的語句,卻可能答非所問;“圖像識別”能輕鬆區分貓與狗,卻可能將烏龜誤判為手袋包;“推薦系統”能捕捉用戶偏好,卻會執着地推送一次性商品等,彷彿無法理解需求的偶然性。這些錯誤暴露了 AI 模型對人類常識、語境與價值缺乏足夠理解。
“術高於道”理解判斷欠佳
這種現象的根源在於 AI 依賴統計規律進行學習。它能夠從大規模數據中發現相關模式,卻缺乏因果推理能力。一旦場景偏離訓練經驗,其“魯棒性”(Robustness,又即是“穩健性”)便迅速下降。理由是,AI 系統通常只針對單一目標進行優化,例如最大化點擊率或最小化準確率,這種單維優化算法很容易偏離人類的多維需求,從而影響決策和推薦的實際價值。正因如此,AI 雖然能展現驚人能力,卻常在理解和判斷上表現欠佳,體現出“術高於道”的局限。
這一問題已引發國內外學術界的持續探索。例如,針對“大型語言模型”(Large Language Model, LLM)的“幻覺”(Hallucination)現象,即模型偶爾生成的回應與用戶輸入的“指示”(Prompt)不符、與先前生成內容矛盾,或與已有世界知識不一致的回答。為此,部分團隊通過優化高質量的數據源來減少噪聲,修正訓練數據中的錯誤知識,並在模型訓練與推理階段調整參數,從而提升輸出的準確性與一致性。此外,愈來愈多的研究嘗試引入外部知識庫或“知識圖譜”(Knowledge Graph),實現動態訊息補充,使模型能夠超越固有訓練的知識邊界,生成更貼近現實的答案。同時,研究者也致力於提升模型對自身知識局限的認知能力,讓模型能夠“知之為知之”,對回答的不確定性進行自我評估,從而生成更加穩健、可信的內容。這些方法旨在減少“人工愚能”的發生,使 AI 在實際應用中保持靈活性,並且增強其可控性。
醫療模型倘誤判後果嚴重
“人工愚能”是風險所在,用戶不容掉以輕心。在醫療領域中,若診斷模型因偏差而誤判,後果可能極為嚴重;在金融場景中,若算法過度依賴歷史模式,極端情況下可能加劇系統性風險;在企業管理中,若決策者過分依賴 AI 的建議,就可能因缺乏背景常識而導致方向性的失誤。因此,“人工愚能”突顯了 AI 的能力邊界,提醒我們必須保持謹慎。
化解“人工愚能”的關鍵建在於人機協作。AI 適合作為增強人類能力的工具,而非獨立決策者。它擅長處理數據密集型任務,卻需要人的監督與判斷。系統設計不能只追求準確率或效率,還應關注“可靠性”(Reliability)、“公平性”(Equality)及“可解釋性”(Explanability)。同時,AI 應用是動態迭代過程,通過持續監控和反饋,不斷修正“愚能”的一面,使其逐步與實際應用需求對齊。在戰略部署和日常管理中,人機協作與持續監督,是確保 AI 發揮價值、規避風險的關鍵。
《莊子》有言:“知其不可奈何而安之若命”,AI 的智能與愚能是並存的,應理性看待。AI 帶來巨大潛力,而“人工愚能”提醒 AI 用戶要保持清醒與審慎。面對 AI,人類既要欣賞其能力,也要審視其局限,在理性與協作的框架下,方能充分發揮智能潛力,同時避免“愚能”帶來的風險,走得更穩、更遠。
(作者係香港立法會議員、香港中文大學工程學院副院長(外務) 、香港專業及資深行政人員協會副會長。文章僅代表作者個人觀點)
今日熱搜
查看更多



