從嚴守護聲音人格權
m.lvyouyoushicai.com
2026-03-25 10:18:08
來源:福建日報

近日,多名配音演員相繼公開發聲,反對未經演員知情同意,擅自采集其聲音素材用于AI訓練、音色合成及商業變現的行為。
聲音,曾是個體最難以偽造的身份標識,也是自然人格的重要組成部分。然而,隨著生成式人工智能技術的迭代升級,聲音克隆的門檻大幅降低,只需短短幾秒的音頻樣本,黑產鏈便能批量生產出以假亂真的“數字分身”。
與傳統侵權不同,AI仿聲侵權具有極強的隱蔽性和技術性。侵權者往往利用分布式服務器、匿名支付等手段規避監管,被侵權的聲音數據一旦進入模型訓練,便如水滴入海,難以溯源取證,現有的鑒定技術往往滯后于造假手段,導致受害者在維權時面臨“舉證難、認定難、賠償難”的三重困境。
技術無罪,但使用技術必須有界。治理AI仿聲亂象,需構建全鏈條的防護堤壩。首先要確立“合規授權”的鐵律,任何機構在采集、使用聲音數據前,必須獲得權利人的明確知情同意。同時,平臺方應建立嚴格的準入審核機制,對上傳的音頻內容進行源頭把關,切斷非法數據的輸入路徑。此外,要用技術對抗技術,加快研發數字水印、指紋追蹤等溯源技術,讓每一段合成聲音都留有“數字身份證”,實現侵權行為的精準定位與快速打擊,讓侵權者付出沉重代價。
□陳松/文 蔣躍新/圖



