文|黄錦輝
人工智能(AI)研究始於上世紀五十年代,目標是“機器代人”,就此AI系统的可信性尤其重要。顧名思義,這裡的“可信性”是指AI所產出的答案是否可靠。科技發展日新月異,過去將近70年AI的功能不断地在進步,本文以科普教育為目的,简介科學家為提升AI可信性所引進的不同技術。
第一代AI系統主要基於規則(Rule-based),其運算方法是模擬人類如何利用經驗(Experience)及知識(Knowledge)去解決問題。但由於當時硬件(包括記憶體、處理器等)能力的局限,第一代AI系統僅能有效地調用少量的規則,約束了其應用覆蓋面。因此當時的市場認為AI技術偏弱、不可靠,只適合作製造玩具系統而已,不切實際。所以,AI研發初期遇上嚴重瓶頸,進展緩慢。
第三代AI的突破在於内容生成
為彌補低應用覆盖率的短板,電腦科學家引進数據驅動(Data Driven)的人工智能。改進的基本概念是透過“集思廣益”,並採用“機器學習”技術去落實。做法是從“訓練数據集”(Training Data Set)着手,讓AI系统去獲取更多相關的有用资料,從中吸取更廣泛的經驗。理論上,在完美的情况之下,訓練数據越多,生成的AI系統的經驗便會越豐富,解決問題的能力亦會更強。
透過海量数據的訓练,第二代AI赋有極强的“分類”(Classification)功能,較為人津津樂道的應用包括圖片分類、人臉識別等。分類的準確度非常關鍵,直接影響AI系统的可信性。因此,系統面世前一般会進行準確度测试。技術上,AI分類的決定可以“判對”(True)或“判錯”(False);而数據内容則有“正面”(Positives)及“負面”(Negatives),例如数據是一堆“貓”和“不是貓”的圆片,一張“貓”的圖片就是“正面”(Positives),一張“不是貓”的圖片就是“負面”(Negatives)。所以,测試時系统產出的分類结果有四個可能性:(一)“判對正面内容”(True Positives,TP),即正確地判断“貓”的圖片是貓;(二)“判對負面内容”(True Negatives,TN),即正確地判斷“不是貓”的圖片不是貓;(三)“判錯正面内容”(False Positives,FP),即錯誤地判斷“貓”的圖片不是貓;(四)“判錯負面内容”(False Negatives,FN),即錯誤地判断“不是貓”的圖片是貓。高度可信AI必須確保系统每次都“判對”,即(一)及(二)皆要達到最高值,而同时(三)及(四)則要達最低值。
随着全球5G、大数據、深度學習、AI硬件技術的突飛猛進,AI研究已進入新纪元,能夠解決更多、更複雜的問题。除了“分類”功能之餘,第三代AI的突破在於内容生成。用户提出要求(“提示”,Prompt),“生成式人工智能”(GenAI)技術便会产出相應的结果。類似地通大规模的“深度廖習”,GenAI系统建立一個“大語言模型”(Large Language Model,LLM),當中深度分析了前人的經驗和知識,並基於這些“已知”(Knowns)的智慧,生成满足用户要求的答案。
希望“不懂”時乾脆拒絕作答
為保障系统的可信性,第二代AI的做法是減少誤判,從輸出(Output)着手,確保產出的结果“判對”值高企;而第三代AI更進一步地從“提示”(輸入,Input)端出發。從知識角度看,“大型語言模型”擁有廣泛的世界知識,而基於LLM培訓出台之GenAI系统的認知能力,其實依然會受限於LLM的知識範圈。因此,在现實操作中,面对開放式的用戶“提示”(例如“問答”(O&A))的知識密集型任務時,在有限的知識基礎下,GenAI回答難免会出錯。這些錯誤可能会對社会產生重大風险,並降低GenAI的可信性。所以,GenAI需要提供與现實世界一致的準確识息,它要知道自己知道什麼和不知道什麼,並通過“自然語言”(Natural Language)表達出來。
GenAI系统面對用户输入的要求(即“提示”),作答時要麼是“懂”(Know)或“不懂”(Unknow);同時系統背後“大語言模型”的内容要麽是“已知”(Knowns)的或“未知”(Unknowns)的知識。在此基礎之下,GenAI的输出有四個可能性:(一)“懂已知(Know Knowns);(二)“懂未知”(Know Unknowns);(三)“不懂已知”(Unknow Knowns);(四)“不懂未知”(Unknow Unknowns)。當前AI研究希望達到的是每當GenAI系统碰上“不懂”的用戶要求時,便乾脆拒絕作答(say no),免得它信口雌黄。如此這般,GcnAl的可信性便可大大提升。
人工智能全球普及化,势不可當。例如,最近新加坡政府在新一份《财政预算案》中提出將在未來5年投资10億坡元(約58億港元)發展AI,包括大力發展AI晶片、超算中心、11個不同語言的LLM等。概括而言,AI發展除了在科技層面力求突破之餘,AI的可信性亦非常關鍵,絕對不容忽视,它不但影響商業,更其者会對國家安全造成隱患。
(作者係立法會議員、香港中文大學工程學院副院長(外務)、香港專業及资深行政人員協會副會長,文章觀點僅代表作者本人)
https://res.youuu.com/zjres/2024/2/26/Frw5kdwoIkz4EryjA2h0bHFP6tqJdepVvXh.jpg
掃描二維碼分享到手機
+關註
文|黄錦輝
人工智能(AI)研究始於上世紀五十年代,目標是“機器代人”,就此AI系统的可信性尤其重要。顧名思義,這裡的“可信性”是指AI所產出的答案是否可靠。科技發展日新月異,過去將近70年AI的功能不断地在進步,本文以科普教育為目的,简介科學家為提升AI可信性所引進的不同技術。
第一代AI系統主要基於規則(Rule-based),其運算方法是模擬人類如何利用經驗(Experience)及知識(Knowledge)去解決問題。但由於當時硬件(包括記憶體、處理器等)能力的局限,第一代AI系統僅能有效地調用少量的規則,約束了其應用覆蓋面。因此當時的市場認為AI技術偏弱、不可靠,只適合作製造玩具系統而已,不切實際。所以,AI研發初期遇上嚴重瓶頸,進展緩慢。
第三代AI的突破在於内容生成
為彌補低應用覆盖率的短板,電腦科學家引進数據驅動(Data Driven)的人工智能。改進的基本概念是透過“集思廣益”,並採用“機器學習”技術去落實。做法是從“訓練数據集”(Training Data Set)着手,讓AI系统去獲取更多相關的有用资料,從中吸取更廣泛的經驗。理論上,在完美的情况之下,訓練数據越多,生成的AI系統的經驗便會越豐富,解決問題的能力亦會更強。
透過海量数據的訓练,第二代AI赋有極强的“分類”(Classification)功能,較為人津津樂道的應用包括圖片分類、人臉識別等。分類的準確度非常關鍵,直接影響AI系统的可信性。因此,系統面世前一般会進行準確度测试。技術上,AI分類的決定可以“判對”(True)或“判錯”(False);而数據内容則有“正面”(Positives)及“負面”(Negatives),例如数據是一堆“貓”和“不是貓”的圆片,一張“貓”的圖片就是“正面”(Positives),一張“不是貓”的圖片就是“負面”(Negatives)。所以,测試時系统產出的分類结果有四個可能性:(一)“判對正面内容”(True Positives,TP),即正確地判断“貓”的圖片是貓;(二)“判對負面内容”(True Negatives,TN),即正確地判斷“不是貓”的圖片不是貓;(三)“判錯正面内容”(False Positives,FP),即錯誤地判斷“貓”的圖片不是貓;(四)“判錯負面内容”(False Negatives,FN),即錯誤地判断“不是貓”的圖片是貓。高度可信AI必須確保系统每次都“判對”,即(一)及(二)皆要達到最高值,而同时(三)及(四)則要達最低值。
随着全球5G、大数據、深度學習、AI硬件技術的突飛猛進,AI研究已進入新纪元,能夠解決更多、更複雜的問题。除了“分類”功能之餘,第三代AI的突破在於内容生成。用户提出要求(“提示”,Prompt),“生成式人工智能”(GenAI)技術便会产出相應的结果。類似地通大规模的“深度廖習”,GenAI系统建立一個“大語言模型”(Large Language Model,LLM),當中深度分析了前人的經驗和知識,並基於這些“已知”(Knowns)的智慧,生成满足用户要求的答案。
希望“不懂”時乾脆拒絕作答
為保障系统的可信性,第二代AI的做法是減少誤判,從輸出(Output)着手,確保產出的结果“判對”值高企;而第三代AI更進一步地從“提示”(輸入,Input)端出發。從知識角度看,“大型語言模型”擁有廣泛的世界知識,而基於LLM培訓出台之GenAI系统的認知能力,其實依然會受限於LLM的知識範圈。因此,在现實操作中,面对開放式的用戶“提示”(例如“問答”(O&A))的知識密集型任務時,在有限的知識基礎下,GenAI回答難免会出錯。這些錯誤可能会對社会產生重大風险,並降低GenAI的可信性。所以,GenAI需要提供與现實世界一致的準確识息,它要知道自己知道什麼和不知道什麼,並通過“自然語言”(Natural Language)表達出來。
GenAI系统面對用户输入的要求(即“提示”),作答時要麼是“懂”(Know)或“不懂”(Unknow);同時系統背後“大語言模型”的内容要麽是“已知”(Knowns)的或“未知”(Unknowns)的知識。在此基礎之下,GenAI的输出有四個可能性:(一)“懂已知(Know Knowns);(二)“懂未知”(Know Unknowns);(三)“不懂已知”(Unknow Knowns);(四)“不懂未知”(Unknow Unknowns)。當前AI研究希望達到的是每當GenAI系统碰上“不懂”的用戶要求時,便乾脆拒絕作答(say no),免得它信口雌黄。如此這般,GcnAl的可信性便可大大提升。
人工智能全球普及化,势不可當。例如,最近新加坡政府在新一份《财政预算案》中提出將在未來5年投资10億坡元(約58億港元)發展AI,包括大力發展AI晶片、超算中心、11個不同語言的LLM等。概括而言,AI發展除了在科技層面力求突破之餘,AI的可信性亦非常關鍵,絕對不容忽视,它不但影響商業,更其者会對國家安全造成隱患。
(作者係立法會議員、香港中文大學工程學院副院長(外務)、香港專業及资深行政人員協會副會長,文章觀點僅代表作者本人)
https://res.youuu.com/zjres/2024/2/26/Frw5kdwoIkz4EryjA2h0bHFP6tqJdepVvXh.jpg