“大家好,我是你們的嬋寶,今天有事請大家幫忙。嬋妹就想着幫助媽媽,讓家裡的生活過得更好一點,同時把老家的土雞蛋分享給粉絲們嚐嚐。”說這話帶貨的可不是奧運冠軍全紅嬋,而是用AI仿冒全紅嬋聲音的博主。據央視新聞報道,網絡平台上,以假亂真的AI克隆聲音不絕於耳。
依託開源語音大模型,僅憑一段清晰的語音樣本,每個人的聲音都可被快速復刻。部分博主正是利用AI換聲技術,偷名人聲音發佈虛假帶貨內容,甚至實施語音詐騙。據報道,AI仿冒全紅嬋聲音帶貨土雞蛋的視頻中,商品鏈接顯示售出4.7萬件,不知有多少人是因為相信全紅嬋才下的單。
盜用名人聲音,不僅侵犯他人聲音權、肖像權,還可能因為生成的語音內容而損害當事人的名譽權。偷聲叫賣商品、隨意編造故事,誤導公衆,侵犯消費者的知情權,涉嫌虛假宣傳。種種虛假人聲帶貨、直播亂象,擾亂商業秩序,侵蝕網絡生態,在無形中蛀蝕着社會信任的基石。
民法典規定,對自然人聲音的保護參照適用肖像權的保護。然而,在實際糾紛中,維權者可能陷入反覆自證身份的困境。這就需要監管部門提高技術識別手段,同時平台也要健全AI生成內容有效標識和溯源機制。只有讓治理跑在技術套利的前面,才能為數字時代的“聲”命尊嚴撐起保護傘。
今天有名人遭遇偷聲賣雞蛋,明天很可能是普通人被偷聲後把熟人坑個遍。每個人都是技術暴力的潛在受害者,構建數字防火牆、讓AI偷聲雞飛蛋打刻不容緩。