來源:工人日報 隨著算法不斷進步,在高性能設備和高精度模型的助力下,AI生成的聲音已從過去的“一聽就假”發(fā)展到“真假難辨”,AI聲音濫用現(xiàn)象時有發(fā)生。一些商家在短視頻平臺帶貨時,通過AI模仿知名人士的聲音編造內(nèi)容,不僅嚴重誤導了消費者,也對當事人造成了不良影響。 “未見其人,先聞其聲”,如今在網(wǎng)絡平臺上,AI聲音隨處可見。然而,AI聲音濫用日益突出,如社交平臺上,利用AI技術模仿并惡搞名人的短視頻屢見不鮮,其中部分視頻包含不當言論,引發(fā)社會熱議。又如,通過AI手段模擬熟人聲音進行詐騙等犯罪活動,容易令人放下戒備。因此,AI技術必須依法規(guī)范,并嚴厲打擊AI聲音濫用等不法行為。 個人的聲紋信息,作為一種生物識別特征,具有高度的可識別性。根據(jù)個人信息保護法的規(guī)定,聲紋信息被歸類為敏感個人信息,受到嚴格保護。隨著AI技術越來越成熟,從采集到的聲音樣本中精確提取包括頻率、音色、聲調、語速等特征,轉化為復雜的數(shù)學模型,就能生成高度逼真的聲音。也就是說,只需擁有當事人少量的聲音素材,即可迅速實現(xiàn)聲音的“AI克隆”,生成與當事人真假難辨的聲音。 顯然,AI“偷聲”亂象亟待規(guī)范和整治。在法律層面,民法典第一千零二十三條規(guī)定,對自然人聲音的保護,參照適用肖像權保護的有關規(guī)定。而在AI生成聲音的過程中,涉及聲音樣本的采集、使用、算法的研發(fā)和應用等多個環(huán)節(jié),每個環(huán)節(jié)都可能涉及不同主體的權益。因而,有關部門要與時俱進完善聲音權益保護的法律體系,細化AI克隆技術的法律條款,并明確侵權行為的定義和責任。 在治理層面,應多措并舉。其一,平臺要切實履行好監(jiān)管責任,建立健全對AI聲音的審核和侵權舉報機制,及時發(fā)現(xiàn)和攔截侵權、虛假、違法等不良內(nèi)容;其二,相關部門要加大對利用AI技術進行詐騙等違法犯罪行為的打擊力度,并形成更加完善的常態(tài)化治理機制;其三,個人也必須加強對個人生物特征信息的保護意識。 “我的聲音”誰做主?這是個本不該有第二種答案的問題。期待各方加緊協(xié)作,遏制AI“偷聲”的步伐,共同守住網(wǎng)絡世界的安全底線。 丁家發(fā)《工人日報》(2025年02月26日 05版) |
19款電子扎帶
電路板識別電子標簽