文|蔡毅
生成式人工智慧的迅猛發展為經濟社會注入新動能,但其潛在的價值觀偏差、境外滲透及審核機制缺失等問題,也給國家意識形態安全帶來嚴峻挑戰。面對資料污染與演算法“黑箱”風險,亟需構建嚴密的法治與技術防護體系。
本人建議首要加快《人工智慧法》立法進程,將意識形態安全納入法律基本原則,明確訓練資料審查、價值觀對齊及內容過濾等強制性義務,並與現行網絡安全法律形成協同閉環。其次,強化國家層面安全體系建設,建立大模型安全評估認證體系與國家級安全實驗室,攻關隱性偏見檢測等關鍵技術,推動社會主義核心價值觀融入演算法全流程。最後,完善多元共治機制,組建國家大模型倫理審查委員會,建立風險樣本庫與倫理審查標準,同時積極參與全球規則制定,提升我國在人工智慧治理領域的國際話語權。
唯有堅持法治引領與技術賦能並重,方能築牢意識形態安全屏障,確保人工智慧產業健康有序發展,服務於國家長治久安與文化繁榮。
(作者是港區全國人大代表、香港島各界聯合會會長)
今日熱搜
查看更多



