「自主決策AI」與「開源AI」的監管方向成為全球熱話。有鑒於此,嶺南大學(嶺大)與意大利博洛尼亞大學一連兩日(10月25日至26日)合辦「第二屆人工智能治理技術國際研討會」。該研討會是「第28屆歐洲人工智能大會」的一部分,匯聚多位世界頂尖專家、學者與政策制定者,旨在提升AI風險評估、責任追蹤及安全保障等方面的監測,促進亞洲與歐洲在AI治理上的跨區域交流。為期兩天活動共吸引逾150名學者和學生參與。
研討會於博洛尼亞大學工程學院以線上及線下形式進行,聚焦三大核心議題,包括(一)「開源AI」的治理;(二)「自主決策AI」的風險與治理;以及(三)邁向「以人為本的AI」的技術。

嶺大副校長(研究及創新)及唐天燊機器學習講座教授姚新教授就「開源AI治理」發表專題演講。他指出,人工智能正迅速改變世界,但AI透過內部運算所作出的建議或決策,背後原因仍然模糊,業界有必要透過技術提升AI模型的透明度和可解釋性。他表示:「監管AI不僅是倫理或法律的問題,更需要利用技術支援監測、審計與問責,推動發展更可靠、可監管的AI系統。我們希望就AI治理的問題,將『亞洲觀點』帶入歐洲討論平台,同時汲取歐洲的經驗,促進全球在AI技術開發與應用方面制定藍圖。」

IBM研究部(東京)資深技術人員Takayuki Osogami博士指出,某些AI系統可以自己做決策、計劃未來甚至制定策略,這類「自主AI」如果沒有適當規管,可能帶來嚴重風險,包括危及人類安全或引發全球性災難。他認為,目前大部分規管只看AI的運算能力大小,這不足以判斷真正的風險。他建議應觀察AI系統「自主行動的程度」,即它能自己做多少決策,來作為評估風險的指標,這比單純看它處理的數據或環境更準確。
歐洲人工智能、數據與機器人協會主席 Emanuela Girardi女士指出,近年出現的「自主決策AI」與「實體AI」,能在數碼世界或現實中自行決策和行動,帶來前所未有的管治挑戰。這些AI系統幾乎毋須人類監督就能運作,遠超現有針對人類操作系統而設的規管範圍,可能引發多層面的風險。例如,「自主決策AI」可能採取意想不到的方式完成目標,甚至透過心理手法影響用戶;而「實體AI」則可能出現安全問題,從自動駕駛汽車到家用機械人,一旦出錯可能造成傷亡或財物損失。無論是AI伴侶可能引發的心理操控,還是工業及家居自動機械人的部署,都顯示政府和機構目前仍難以跟上快速發展的新技術。
她又指出,目前全球AI管治碎片化、缺乏協調,即使有不少國家推出倫理原則或指引,仍未有具約束力的規管框架。她提出,歐洲及全球層面都需要建立可行的管治框架,確保AI符合人類價值觀並接受有效監管。
圖爾庫大學資訊系統科學教授Matti Mäntymäki教授在研討會上指出,企業需要將倫理原則和監管要求這些抽象概念,轉化為應用AI的實際決策流程和問責機制。他又分享與業界合作五年的研究成果,提出一套專為不同組織設計的AI治理框架,在實際應用中得到的寶貴經驗和教訓,能為不同企業建立可靠的AI治理提供清晰指引。

其他參與研討會的講者和嘉賓,均為世界各地學術界、產業界和政府部門等不同領域的知名且極具影響力的學者,包括嶺大數據科學學院工業數據科學部副教授劉佳琳教授;慕尼黑工業大學人工智能倫理研究所所長Christoph Lütge教授;倫敦大學學院計算機科學系教授Mirco Musolesi教授;費拉拉大學數學與計算機科學系教授Fabrizio Riguzzi教授;博洛尼亞大學法律理論與人工智能與法律、法律哲學教授Antonino Rotolo教授;Convergence Analysis人工智能安全研究員Elliot Mckernon博士;特倫托大學博士後研究員Daniele Proverbio博士;麥基爾大學研究員Tomer Jordi Chaffer先生;弗勞恩霍夫智能分析與資訊系統研究所資深數據科學家Rebekka Görge女士;以及生成式人工智能共享平台聯合主席Anni Lai女士。
請按此了解更多「第二屆人工智能治理技術國際研討會」的詳情。
今日熱搜
本週熱搜
本月熱搜
查看更多



