您当前的位置 :浙江在线 > 时政新闻 > 时评 正文

AI换声不能成为声音权保护盲区

字体:
2025-02-15 09:51:37 来源: 北京青年报客户端 文 戴先任

  从“张文宏医生”推销蛋白棒视频“走红”网络,后被本人“打假”,到多位配音演员称声音被AI“偷走”,公开维权……新华社记者调查发现,随着人工智能技术和语音大模型应用的发展,AI合成声音App大量出现,最快只需十几秒便可“克隆”出来。与此同时,AI声音滥用现象愈发突出,不时引发争议。

  随着AI技术的发展与普及,AI“偷声”也越来越能以假乱真、混淆视听,并逐渐呈现出泛滥之势。国家金融监管总局2024年7月发布的《关于防范新型电信网络诈骗的风险提示》中就提到,不法分子可能对明星、专家、执法人员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。

  未经授权把他人的声音AI化,涉嫌侵犯他人的声音权和个人信息安全,还可能扰乱网络空间生态和秩序。《民法典》规定,对自然人声音的保护参照适用肖像权保护的规定,防止其被混淆、滥用、冒用、不正当使用。特定的声音除了有身份识别,人格属性外,还具有经济价值(市场经济价值)的属性。

  去年4月,北京互联网法院开庭审理了全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。最终侵权者被判赔礼道歉,并向原告赔偿经济损失。

  技术本身是中性的,但如果使用不当,就可能带来“双刃剑”效应。所以,对于AI换声、AI技术、人脸识别技术等新业态新技术,要能明确划清应用边界,防范“双刃剑效应”,尤其要加强对声音权、人脸信息等公民合法权益的保护。

  更好保护声音权等公民合法权益,需要进一步完善相关法律法规,强化人工智能伦理规制,明确侵权赔偿责任,完善监管机制等等。规范AI技术的使用,除了要加强司法保护,还要加强普法宣传,比如让人认识到声音权也是不容侵犯的合法权利,从而增强社会法律素养。网络平台则要加强管理,及时发现、处理可能涉及侵权的AI生成作品,对侵权视频采取下架等措施。

  自然人的声音,也是应予保护的合法权利,他人不得侵犯。声音权不能成了人格权保护的盲区,AI声音不能成了“李鬼盗音”。遏制AI声音滥用,需要筑牢法治“消音墙”,让“AI换声”不再任性“换声”“偷声”,让AI声音得到正用而不是滥用。

版权和免责申明

凡注有"浙江在线"或电头为"浙江在线"的稿件,均为浙江在线独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为"浙江在线",并保留"浙江在线"的电头。

责任编辑: 黄泽杭