极目新闻客户端

管住“智能造谣”,我们应该怎么做,雷军周鸿祎等代表委员为AI治理支招

极目新闻 2025-03-04 23:11:08 阅读量:

极目新闻记者 庞正 陈倩 王俐燃 涂梦蝶

日前,中央网信办发布2025年“清朗”系列专项行动整治重点。明确提出整治AI技术滥用乱象,突出AI技术管理和信息内容管理,强化生成合成内容标识,打击借AI技术生成发布虚假信息、实施网络水军行为等问题,规范AI类应用网络生态。

2月24日,今日头条“平台治理开放日”上发布的《2024年度治理报告》显示,去年平台拦截低质AI内容超93万条,处罚同质化发文超781万篇。

AI技术的应用让内容生成更便捷,但也伴生了技术滥用带来的乱象。如何规范技术应用,管住“智能造谣”?参加全国两会的全国人大代表和全国政协委员,纷纷为人工智能安全运用支招。

逼真到“正主”都不知所措,“智能造谣”乱象丛生

日前,有网友发现一个视频号发了很多演员刘晓庆的视频,并怀疑相关视频由AI生成,对此刘晓庆本人在看了视频后回应称:“画面是我,声音很像我,但不是我!这是怎么做到的?大家以后不会搞不清楚哪个才是真的我了吧?”

连本人都难辨真伪,这样的谣言对社会公众来说欺骗性就更大了。

“智能造谣”的乱象,引起了全国人大代表、TCL创始人、董事长李东生的关注。

“一方面,生成式人工智能技术的进步给各个领域带来机遇;另一方面,AI深度伪造内容侵权现象愈演愈烈,欺诈事件频发。”李东生说,针对AI深度伪造内容管理问题,近年来,我国相关立法虽有关注这一议题,但已出台的规章制度还不具备可操作的细则和明确的处罚标准。

他认为,要规范对于这一新兴技术的不当利用,有必要要求深度合成服务提供商对人工智能生成的内容进行强制标识,减少恶意滥用,且有助于厘清责任,对违法犯罪行为追责。

他提出四点具体建议:一是加快人工智能深度合成内容标识管理规章制度的出台。二是明确对人工智能深度合成服务商未履行标识义务的惩罚制度,完善未按要求进行标识的行为界定、分类细则,以及相应的处罚标准。三是加强深度合成内容标识技术标准和发布的管理,保证标识的有效性,对相关内容平台出台要求,用户在发布深度合成的视频、音频等内容时,有义务对其进行标识。四是加强国际合作,形成人工智能生成合成内容的有效监管。

李东生向极目新闻记者介绍,在前不久举行的巴黎人工智能行动峰会上,包括中国、印度、欧盟在内的多个国家和国际组织在会上签署了《关于发展包容、可持续的人工智能造福人类与地球的声明》,这是全球AI治理的一个重要尝试,也标志着全球AI治理迈入新阶段。考虑到技术创新和相关监管需要,可适度推后对未履行标识义务的AI深度合成服务商的惩罚制度,可提前明确相应处罚措施,有利于相关企业尽早做好合规的准备。

“一本正经地胡说八道”,让人难以分辨

在AI制造的谣言中,还有一种更具欺骗性的情况,那就是AI生成的内容,看似有理有据,但实际却是基于不真实数据的“幻觉”。这种“一本正经地胡说八道”,更加让人难以分辨。

全国政协委员、360创始人周鸿祎,一直关注这种人工智能系统生成的内容与真实数据不符或者偏离用户指令的AI“幻觉”问题。他在接受极目新闻采访时表示,当大模型渗透率提升时,应用安全问题也迫在眉睫,建议以模制模,通过打造安全大模型来解决大模型的应用安全问题。

今年春节期间,DeepSeek在全球异军突起,成为AI发展史上的重要里程碑。“在我看来,DeepSeek最大的成果不仅是让中国大模型在技术上赶上了美国大模型,同时在中国用户、企业和政府中做了一次人工智能的普及教育。由于DeepSeek免费、开源等特性,大家纷纷开始采用DeepSeek在政府企业内部降本增效,加速了中国爆发AI产业革命的步伐。”周鸿祎说,但DeepSeek作为基座模型,也存在着AI“幻觉”等问题。同时,大模型要在企业内部真正发挥作用,还需要连上企业的专业知识库、打造智能体,调用企业各种IT系统,这进一步加剧了安全风险,而传统网络安全已经无法应对新挑战。他建议,应由既懂安全又懂AI的企业牵头,以模制模,通过打造安全大模型来解决大模型的应用安全问题。

周鸿祎分析,作为人工智能,DeepSeek本身一直存在着“幻觉”的“基因问题”。其实AI“幻觉”是一把双刃剑,它让大模型体现出更多的创造性和想象力,同时,大模型“幻觉”很难消除,但已经可以通过多个大模型交叉验证、搜索矫正以及企业知识库比对等方式进行纠正。筑牢网络安全根基,是为大模型发展铺路;而解决AI应用安全与“幻觉”问题,则是让技术真正转化为新质生产力。

加快立法强化自律,增强民众的防范能力

“使用AI时,要注意保护个人信息。”3月4日,全国人大代表、湖北松之盛律师事务所合伙人李刚围绕人工智能(AI)的法律风险与监管路径发表了观点。

李刚提到,AI的出现给大家的生活和工作提供了便利,然而,换脸拟声等技术有时会被用于娱乐、恶搞甚至诈骗,存在严重的个人隐私泄露风险。

他建议,行政与司法部门可以强化对该类情况的追责力度,此外,AI处理敏感数据时的泄露风险亦需防范,“企业应建立数据分级机制,防止恶意利用”。

本次全国两会,全国人大代表、小米集团创始人、董事长兼CEO雷军也将提出关于加强“AI换脸拟声”违法侵权重灾区治理的建议。

雷军表示,人工智能深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域的广泛兴起,成为喜闻乐见、传播力强、易成热点的技术应用。但同时也看到,“AI换脸拟声”不当滥用成为违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,不利于构建“以人为本、智能向善”的人工智能发展生态。

因此他建议,加快单行法立法进程,在安全与发展并重的基础上提升立法位阶;强化行业自律共治,压实平台企业等各方的责任和义务;加大普法宣传的广度和力度,增强民众的警惕性和鉴别力。

责任编辑:李伟 值班主任:张欣 校对:苏新艳