首页 > 热门资讯 > 其他信息

从恶搞到犯罪:声音克隆App泛滥!企业家声音遭盗用,平台紧急封禁

凌创派 2025-02-20 08:40:28 人看过

你有没有想过,自己的声音可能正在被“偷走”?最近,一则“张X宏医生推销蛋白棒”的视频在网络上疯传,视频中“张X宏”用标志性的语调和表情推荐产品,结果被本人亲自打假,这根本是AI合成的假视频!更让人震惊的是,类似的事件并非孤例。从企业家雷军“吐槽”堵车,到刘德华“翻唱”网络神曲,再到普通老人被仿冒亲属声音诈骗上百万元,AI声音克隆技术正从娱乐消遣滑向犯罪的深渊。  

声音克隆app泛滥.jpg

15秒克隆:技术门槛低到可怕

AI声音克隆的泛滥,背后是技术的“平民化”。如今,市面上已有数十款声音合成App,用户只需对着手机念几段话,最快15秒就能生成以假乱真的声音。记者尝试了一款热门App,输入某知名企业家的公开演讲片段后,AI立刻生成了他“吐槽”调休政策的音频,连标志性的语气词都模仿得惟妙惟肖。客服甚至直言:“只要付XXX元,用谁的声音都行,不需要授权证明。”  

这种技术的普及,让普通人也能轻松“扮演”他人。短视频平台上,AI模仿明星唱歌、名人演讲的视频点赞动辄过万,甚至有人用AI生成某企业家“爆粗口”的音频博取流量,逼得当事人公开喊话:“请不要再‘玩’我的声音了!”  

声音克隆.jpg

从恶搞到诈骗:一条黑色产业链

起初,AI声音克隆多被用于恶搞或娱乐。比如网友用雷军的声音翻唱《孤勇者》,或是让企业家“跨界”点评热门游戏。但随着技术滥用,这条产业链逐渐走向失控。  

一些商家盯上了“名人效应”。记者调查发现,短视频平台上,不少主播通过AI将声音“变成”知名医生或女明星,带货保健品、护肤品。消费者王女士就曾上当:“我以为是某专家推荐的产品,买回来才发现是三无商品!”更恶劣的是,有不法分子利用AI仿冒亲属声音,以“打人被抓急需赔偿”为由诈骗老人,单笔金额高达百万元。  

中国社会科学院专家指出,声音作为生物识别信息,与指纹、面部特征一样具有唯一性。未经授权克隆他人声音,不仅侵犯人格权,还可能扰乱社会秩序,比如伪造官员发布政策谣言,或模仿专家传播虚假健康知识。  

ai合成马斯克打广告.jpg

平台紧急封禁,但治标难治本

面对乱象,平台终于出手。腾讯、抖音等近期封禁了大量仿冒名人的账号,并对AI生成内容强制添加“合成标识”。2024年北京互联网法院更审结全国首例“AI声音侵权案”,判决未经许可使用他人声音生成内容属于违法,需赔偿损失。  

然而,治理仍面临三大难题:  

1. 技术跑得比监管快:AI合成工具迭代迅速,平台审核常滞后于新骗术;  

2. 维权成本高:普通人难以及时发现声音被盗用,即便发现,举证和追责过程也耗时费力;  

3. 黑产隐蔽性强:不法分子通过境外服务器和虚拟身份交易,平台封号后换个“马甲”又能卷土重来。  

如何守住声音的“最后防线”?

要遏制AI声音滥用,需多方合力。  

技术层面,专家建议用AI对抗AI。例如开发检测工具,自动识别合成声音;或在生成时嵌入“数字水印”,便于溯源。  

法律层面,我国《民法典》已明确声音权受保护,2024年出台的《人工智能生成合成内容标识办法》更要求AI内容必须显著标注。但具体执行细则仍需完善,比如明确“模仿到什么程度算侵权”。  

个人层面,公众需提高警惕。听到“熟人”借钱或“专家”带货时,多一步核实。毕竟,AI再逼真,也无法复制真实的情感与逻辑。  

技术无罪,关键在用之有道

AI声音克隆本是一把双刃剑。在医疗领域,它帮助渐冻症患者用合成声音与家人交流;在教育领域,它能还原历史人物的演讲,让课堂更生动。但若被滥用,技术反而会成为伤害社会的凶器。  

正如法律专家所言:“我们并非要禁止技术,而是要为它划清底线。”未来,或许我们会在短视频中看到更多AI生成的有趣内容,但它们一定会在显眼处标注“合成”,让观众知情;而那些试图用技术作恶的人,也将付出更沉重的代价。  

技术如何真正服务于人?答案或许藏在每一次负责任的选择里。想探索AI的更多正向应用场景,不妨从凌创派官网开始,这里不仅有前沿技术解析,还有关于伦理与创新的深度讨论。毕竟,科技的温度,终究取决于使用它的人。  

相关阅读

短剧自动解说APP

热门标签

导师微信
短剧授权
手机扫一扫
导师微信
微信扫一扫
微信号:kt022999
贴吧问答
回到顶部