全球人工智能市場迅速增長,但世界各地政府卻沒有盲目地全面接受,部分對人工智能應用的負面影響憂心忡忡。以歐洲為例,歐盟委員會於今年四月公報一份人工智能監管草案,建議禁止大規模監控及基於人工智能的社會信用系統。
草案的基本原則,是數據擁有者的權利必須得到合理合法保障。大數據分析是人工智能的促成技術,其效能與背後的數據息息相關。歐盟了解到在數據分析者一廂情願之下(尤其是在商業應用方面),他們會有意或無意地侵犯了數據擁有者的權利。因此,歐盟於二○一六年推出《一般數據保護條例》(GDPR),目的是保護歐盟個人數據,包括擁有者的私隱權、知情權、問責權、删除權等。再者,《條例》更適用於全球,可以監管歐盟境外第三方對個人數據的處理操守。所以,人工智能草案與GDPR掛鈎,對國際人工智能的商務發展,將會影響深遠。
另外,草案提出人工智能使用的大原則,目的是禁止開發極高風險的人工智能應用,包括:
一、禁止利用人工智能技術在不知不覺中操控人類意識,代替用戶作決定或扭曲其行為,繼而對他造成身體或心理的傷害。類似應用在今天虛擬世界如雨後春筍般出現,例如不良社交媒體利用虛假或極端主義訊息,進行自動推薦,誘導客戶作非自願的決定。
二、利用兒童或殘疾人士的脆弱性進行誤導,對他們造成傷害。這原則與歐盟一貫對弱勢社群的重視和保護之政策同出一轍。
三、推行社會信用體制。歐盟委員會認為若然人工智能系統根據人的社會行為或人格等特徵進行用戶信用評估的話,這行為會造成不可預見的後果,導致個人或特定群體的權益受到損害。現實中不同的社會文化會產生不同的算法偏見,這將直接對信用評估產生影響。這樣的社會信用體系,侵蝕社會公平公正基本原則,因此草案提出禁止乃是理所當然。
歐盟委員會續指,高風險的社會信用評估應用場景主要集中在社會保障、就業和教育等與生活息息相關的領域。在就業方面,利用人工智能算法對工作人員進行評估或監測,屬於高風險行為,因為算法可以左右員工的職業前景和生計。與此同時,由於算法有機會存有偏見,因此人工智能會對婦女、殘疾人士或長者在工作上產生歧視,令個人的隱私權受到威脅。
在教育方面,利用算法進行招生錄取、評估學生水平等同樣存在高風險,這做法很可能會影響被評者一生受教育的機會,還會產生社會固化的問題。在社會保障系統方面,人工智能參與決策過程將對民生產生重大影響,例如利用人工智能去分析某申請人,來決定他是否能獲得銀行貸款、財政補助、保障性住房、電力電信等基本服務,但由於種族、殘疾、年齡、性取向等各種因素,算法很可能延續社會存在的歧視,使弱勢社群問題日益惡化。
人工智能是香港政府創科發展的四大領域之一,政府亦計畫檢視現行法例和法規,筆者認為歐盟的人工智能監管草案值得政府參考。然而,香港是一個國際經濟大都會,工商業界在人工智能法律的草擬過程中,必然有相當多的要求,他們會盡力爭取最大的個人經濟利益,為此輕視社會道德。因此,政府要保障大眾的利益,以及平衡社會道德,將會面對重重挑戰。
(文章觀點僅代表作者本人)
作者為香港中文大學工程學院副院長(外務)
來源:星島日報