黃錦輝:發揮“人工智能” 避免“人工愚能”-紫荊網

黃錦輝:發揮“人工智能” 避免“人工愚能”

日期:2025-12-17 瀏覽量: 字號:
分享到
用微信掃描二維碼

| 黃錦輝

人工智能(AI)技術發展一日千里,為社會和產業應用注入了無限的想像。無論是“自然語言處理”(Natural Language Processing, NLP)、“圖像識別”(Image Recognition),還是“推薦系統”(Recommendation System),人工智能都展現出前所未有的效率和能力。但舆此同時,人們愈來愈多地感受到人工智能的另一面,道些系统在展现“聰明(intelligence)的同時,也常常表現出近乎“愚蠢”(lgnorance)的一面。學界舆業界將遣種現象稱為“人工愚能”(Artihcial lgnorance)。實際上,·“人工愚能”並非輕描淡窝的調侃,而是揭示了人工智能愿用中不可忽视的局限,·官、產、學、研各界絕對不容忽视。

“人工愚能”的表現形式多樣。例如“生成式人工智能”(GenAI)能生成流暢的語句,卻可能答非所問;“圖像識別”能輕鬆區分貓與狗,卻可能將烏龜誤判為手袋包;“推薦系統”能捕捉用戶偏好,卻會執着地推送一次性商品等,彷彿無法理解需求的偶然性。這些錯誤暴露了 AI 模型對人類常識、語境與價值缺乏足夠理解。

“術高於道”理解判斷欠佳

這種現象的根源在於 AI 依賴統計規律進行學習。它能夠從大規模數據中發現相關模式,卻缺乏因果推理能力。一旦場景偏離訓練經驗,其“魯棒性”(Robustness,又即是“穩健性”)便迅速下降。理由是,AI 系統通常只針對單一目標進行優化,例如最大化點擊率或最小化準確率,這種單維優化算法很容易偏離人類的多維需求,從而影響決策和推薦的實際價值。正因如此,AI 雖然能展現驚人能力,卻常在理解和判斷上表現欠佳,體現出“術高於道”的局限。

這一問題已引發國內外學術界的持續探索。例如,針對“大型語言模型”(Large Language Model, LLM)的“幻覺”(Hallucination)現象,即模型偶爾生成的回應與用戶輸入的“指示”(Prompt)不符、與先前生成內容矛盾,或與已有世界知識不一致的回答。為此,部分團隊通過優化高質量的數據源來減少噪聲,修正訓練數據中的錯誤知識,並在模型訓練與推理階段調整參數,從而提升輸出的準確性與一致性。此外,愈來愈多的研究嘗試引入外部知識庫或“知識圖譜”(Knowledge Graph),實現動態訊息補充,使模型能夠超越固有訓練的知識邊界,生成更貼近現實的答案。同時,研究者也致力於提升模型對自身知識局限的認知能力,讓模型能夠“知之為知之”,對回答的不確定性進行自我評估,從而生成更加穩健、可信的內容。這些方法旨在減少“人工愚能”的發生,使 AI 在實際應用中保持靈活性,並且增強其可控性。

醫療模型倘誤判後果嚴重

“人工愚能”是風險所在,用戶不容掉以輕心。在醫療領域中,若診斷模型因偏差而誤判,後果可能極為嚴重;在金融場景中,若算法過度依賴歷史模式,極端情況下可能加劇系統性風險;在企業管理中,若決策者過分依賴 AI 的建議,就可能因缺乏背景常識而導致方向性的失誤。因此,“人工愚能”突顯了 AI 的能力邊界,提醒我們必須保持謹慎。

化解“人工愚能”的關鍵建在於人機協作。AI 適合作為增強人類能力的工具,而非獨立決策者。它擅長處理數據密集型任務,卻需要人的監督與判斷。系統設計不能只追求準確率或效率,還應關注“可靠性”(Reliability)、“公平性”(Equality)及“可解釋性”(Explanability)。同時,AI 應用是動態迭代過程,通過持續監控和反饋,不斷修正“愚能”的一面,使其逐步與實際應用需求對齊。在戰略部署和日常管理中,人機協作與持續監督,是確保 AI 發揮價值、規避風險的關鍵。

《莊子》有言:“知其不可奈何而安之若命”,AI 的智能與愚能是並存的,應理性看待。AI 帶來巨大潛力,而“人工愚能”提醒 AI 用戶要保持清醒與審慎。面對 AI,人類既要欣賞其能力,也要審視其局限,在理性與協作的框架下,方能充分發揮智能潛力,同時避免“愚能”帶來的風險,走得更穩、更遠。

(作者係香港立法會議員、香港中文大學工程學院副院長(外務) 、香港專業及資深行政人員協會副會長。文章僅代表作者個人觀點)

掃描二維碼分享到手機

4月5日起中國內地航線燃油附加費將上調
紫荊時評|唱衰論調可休矣!
Token:完善全球數據治理的突破口
我國科研人員發現99個新物種
紫荊雜誌
影響有影響力的人