下载APP | 繁體版 | 发布广告 |常用工具

全红婵惨遭骗徒用AI假冒带货卖鸡蛋 大量粉丝中招

京港台:2025-8-21 05:46| 来源:HK01 | 我来说几句


全红婵惨遭骗徒用AI假冒带货卖鸡蛋 大量粉丝中招

来源:倍可亲(backchina.com)

 

  

Thumbnail view only, Click to view original

  随着AI技术的普及,「複製」特定人物声音已实现「一键式」操作,同时也带来了民事侵权甚至涉嫌犯罪的法律问题。

  在网络上,奥运冠军的「声音」突然开始推销农产品,知名演员的「声音」24小时不间断在直播间与粉丝互动……这些以假乱真的AI複製声音正成为部分自媒体博主的「流量密码」。据悉,依託成熟的语音大模型技术,仅需十几秒就能「複製」任何人的声音,当声音能被轻易窃取和滥用,随之而来的侵权乱象频繁上演。

  

Thumbnail view only, Click to view original

  AI複製特定人物声音已实现「一键式」操作,该技术被利用作假冒全红婵等奥运冠军推销农产品,引起关注。(央视新闻)

  

Thumbnail view only, Click to view original

  

Thumbnail view only, Click to view original

  

Thumbnail view only, Click to view original

  

Thumbnail view only, Click to view original

  

Thumbnail view only, Click to view original

  记者在抖音平台发现,在这个网名为「我是小助理吖」的博主账号中,已发布的17件作品,内容全部是利用AI彷冒奥运冠军全红婵声音带货土鸡蛋的视频,其中一个视频点讚量高达1.1万。评论区显示,大量粉丝误以为这就是全红婵本人,纷纷下单购买链接中的鸡蛋,该商品链接显示已售出4.7万件。今年4月,全红婵家人曾向媒体证实,全红婵并未给相关农产品代言或授权。

  除全红婵外,奥运冠军孙颖莎和王楚钦也遭遇了同样的彷冒。在这个网名为「小兔真可爱」的账号中,两位奥运冠军的AI複製声音同样在为土鸡蛋带货。网传彷冒孙颖莎带货画面:

  为获关注 一些博主複製名人声音进行直播

  以假乱真的声音再加上对奥运冠军的喜爱,该网络博主也收穫了大量粉丝的订单。而记者发现,AI彷冒名人的乱象远不止带货,还有部分自媒体博主複製名人的声音后进行24小时语音直播,演员靳东是被彷冒最多的对象,在这看似匪夷所思的操作背后,却隐藏着另一个灰色产业链。

  据网络安全专家潘季明介绍,通过彷冒名人进行直播这种方式不仅可以诱骗粉丝打赏获利,还可以将一个小白账号迅速打造成上万粉丝的账号,从而再为后续牟利来铺路。

  合作一次 配音演员就遭「AI盗声」困局

  AI彷冒名人的行为,不仅欺骗了消费者,也侵犯了当事人的人格权。而AI複製技术滥用盯上的远不止我们熟知的名人,记者调查发现,配音演员被AI複製侵权的桉例同样频繁发生。他叫武扬,是一位从业十多年的职业配音演员,主要从事影视和广告配音。今年6月中旬,武扬突然在某餐饮企业的宣传片中听到了自己的声音,但这段配音并不是他录製的,该视频的转发量当时已达到2800多次。

  面对武扬的质问,对方承认了他们利用AI複製武扬声音的事实,但是拒绝武扬提出公开道歉的要求,声称该複製声音是由第三方公司提供,他们没有直接责任,仅愿意支付5000元(人民币(专题),下同)来进行赔偿,武扬拒绝了这个条件,他担心这笔钱被当成了授权费,更怕妥协后侵权会变本加厉。

  与武扬的情况类似,另一位配音演员浩洋的维权也陷入了「自证循环」,侵权方不仅拒绝承认对浩洋声音複製侵权,还试图採取拖延的方式矇溷过关。

  浩洋告诉记者,从今年年初开始,他已经遭遇了多次被侵权,而他的遭遇在配音行业也并非个例。当被滥用的AI技术成为侵权行为的掩护,合作一次就能无限複製,遭到侵权的配音演员们决定不再隐忍,武扬目前已经收集了相关的证据,准备走法律程序起诉侵权方。

  配音演员武扬: 我还是建议同行,儘量让侵权方付出更高的违法成本,这样他们就不敢轻易用AI对我们进行侵权。违法成本高了,也是对我们今后这个行业的一个保护。

  一键盗声仅需十几秒 AI技术应做具体限制

  有人为自己的权益被侵犯而困扰,侵权者却滥用AI技术违法牟利。那么,AI複製声音是如何实现以假乱真的?又是谁在为「盗取声音」而推波助澜?记者调查发现,在抖音、快手等网络平台上,以「声音複製」为关键词进行搜索,能轻易找到大量相关教程视频和软件下载讯息。部分博主不仅详细演示操作过程,还直接提供软件资源。

  网络安全专家潘季明介绍,基于开源的语音大模型,只需一段清晰的语音样本,任何人的声音都可能在极短时间内被複製,并能被操纵说出攻击者设定的任意内容。

  AI複製声音最大隐患是被诈骗分子利用

  据潘季明介绍,除了侵犯声音权等合法权益,AI複製声音目前最大的隐患是被诈骗分子利用,一旦与AI换脸等技术结合,生成高度逼真的「数字人」实施诈骗,危害将非常严重。潘季明建议,目前相关的技术要从源头进行相应限制:

  在开源的过程当中,我们可能需要对这些开源代码做一些使用层面上的限制,包括使用时长、应用场景上,也需要做一些具体的应用限制。

  保护「声音」 法律为AI複製划出红线

  从「一听就假」到「真假难辨」,AI複製技术的滥用不仅严重侵犯了当事者的权益,而且还涉嫌违法违规。据法律专家介绍,内地民法典将人格权独立成编,首次以立法形式将保护「声音」写入其中,在第1023条中明确,对自然人声音的保护,参照适用肖像权保护的有关规定。

  北京航空航天大学法学院副教授赵精武解释:

  利用人工智能合成的这些声音,如果能够使得一般公众或者相关领域的公众,根据他的音色以及风格关联到特定自然人,那么就具有了法律上认定的可识别性,仍然可以构成对他人的侵权行为。我们国家的民法典1019条、1023条,都明确了相关侵权行为的认定,是没有经过肖像权人的同意作为前提的。

  赵精武介绍,任何自然人的声音均应受到法律的保护,对录音製品的授权并不意味着对声音AI複製的授权,未经权利人许可,擅自使用或许可他人使用权利人的声音构成侵权。

  技术+监管 重拳整治AI技术滥用

  针对目前网络上AI複製声音的相关内容被大量传播,相关的平台是否也应承担相应的责任呢?此类乱象该如何治理呢?赵精武表示:

  根据民法典1197条的相关规定,平台与平台用户承担连带责任有一个前提,也就是平台知道或者应当知道用户利用了它的网络讯息服务,实施了侵害他人合法权益的行为,并且没有采取必要措施。这里知道或者应当知道的判断标准,主要是考虑到平台对网络讯息内容的管控能力,所提供的服务性质、方式,以及引发侵权可能性的大小,平台有没有採取预防侵权措施的技术的可能,并且有没有相应的合理的措施。

  专家建议,针对滥用AI複製声音的乱象,平台层面要切实履行监管责任,建立健全对AI声音的审核和侵权举报机制,及时发现和拦截侵权、虚假、违法等不良内容。

  今年3月,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》,将于2025年9月1日起施行,其中明确了服务提供者应当对文本、音频、图片、视频、虚拟场景等生成合成内容添加显式标识等。另外,中央网信办近日在全国范围内部署开展「清朗·整治AI技术滥用」专项行动,将强化AI技术源头治理,清理整治违规AI应用程序,推动网站平台提升检测鑑伪能力等。

 

相关专题:普京,俄罗斯,全球骗局

推荐:美国打折网(21usDeal.com)    >>

        更多大陆资讯 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2025 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2025-8-21 05:46

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部