点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
近期
媒体报道
一家MCN机构通过
具有语音交互功能的AI软件
生成虚假文章上传到多个网络平台
最高峰一天能生成4000—7000篇
引发广泛关注
当网络谣言遇上AI……
网民该如何应对
“0成本、高收益”
随着AI从最初的“工业级”技术
逐渐“飞入寻常百姓家”
一些别有用心者的造谣能力
也得到了大幅提升
报道称
一些不法分子或机构
为赚取平台流量补贴
实现流量变现
利用AI合成技术编造谣言
严重扰乱社会秩序
AI软件生成内容示意
图源:央视新闻
通过提供关键词
AI软件便会自动在网络上
抓取相关信息
生成几百到上千字的文本
配上貌似和事件
具有相关性的虚假图片
从而形成一段看起来信息量很大
实际上子虚乌有的内容
或许你会问
这样做的收益有多高
能让不法分子“趋之若鹜”?
我们来算一笔账
一家MCN机构在短时间内
生成了大量文章
最高峰一天能生成4000至7000篇
最高的一条收入700元
初步估算每天的收入在1万元以上
而成本就是敲击键盘、批量产出
几近于0
速度快、产量高
且“图文并茂”“视频生动”
蛊惑力极强、辨别难度陡增
总的来说
就是“开局一张图,剩下全靠编”
AI=“潘多拉魔盒”?
当网络谣言遇上AI
会发生什么?
我们做了一个实验
“作为AI
你怎么看待AI技术
被用于生产谣言?”
在不同AI大模型的界面输入框
输入上述这个问题
“AI们”的回答“各有千秋”
依次为ChatGPT、通义千问、Gemini、星火大模型回答截图
置身事外客观版:
“作为AI,我并没有情感
但我可以基于伦理
和事实的角度来分析这个问题”
……
Copilot回答
图源:Copilot对话截图
信誓旦旦保证版:
“作为AI,我会严格遵守
相关法律法规和道德准则
确保提供的信息真实可靠
为维护网络空间的清朗作出贡献”
……
文心一言回答
图源:文心一言对话截图
摆正立场谴责版:
“作为AI,我强烈反对
AI技术被用于生产谣言”
……
在各自的“看法”之外
“AI们”也对AI生产谣言的后果
以及解决措施进行了简单分析
智能化、速成式
一键生成、坐收流量
可以说
在AI助力下
那些深谙炒作的不法分子
已然打开了谣言传播的
“潘多拉魔盒”
一个人就是一支谣言队伍
在具有“奇点时刻”意味的当下
一切信息都可能变得亦真亦假
陷入“罗生门”式的迷局
人类也确实需要充分思考
到底应该如何面对AI
面对难以回避的AI新世纪
“魔高一尺,道高一丈”
“后真相时代”
信息杂芜,泥沙俱下
若再任由AI造谣泛滥
会更进一步破坏信息生态
影响社会互信
图源:网络
世界经济论坛公布的
《2024年全球风险报告》指出
由AI产生的错误和虚假信息
正在成为一种风险
如果有主体利用AI进行造谣行为
并产生恶劣影响
需要承担民事、行政或刑事责任
面对这些风险
各国已纷纷展开行动
2023年1月
中国正式实施的
《互联网信息服务深度合成管理规定》
明确要求深度合成服务提供者
在提供智能对话、智能写作等
模拟自然人进行文本生成等
深度合成服务时
可能导致公众混淆或者误认的
应当在生成或者编辑信息内容的
合理位置、区域进行显著标识
向公众提示深度合成情况
同年8月施行的
《生成式人工智能服务管理暂行办法》
也规定提供者应当按照上述规定
对图片、视频等生成内容进行标识
并指出提供者应当依法承担
网络信息内容生产者责任
履行网络信息安全义务
一句话
AI生成内容要显著标识
提供者、平台、用户都要负责任
缺一不可
同样去年4月11日
美国商务部下属机构
国家电信和信息管理局(NTIA)
也发布《人工智能问责政策》
(RFC)征求意见稿
就人工智能审计、安全风险评估、
认证等内容征求意见
其中
对于社交媒体、生成式人工智能模型
以及搜索引擎等服务
审计和评估内容还可能涵盖
错误信息、虚假信息、
深度造假、隐私侵犯和其他相关现象
欧盟日前正式推出全球首部
《人工智能法案》
要求生成式人工智能企业
在人工智能生成内容上增加标记
与训练内容提供者分享利润
严格限制算法被运用于
非法领域和传播谣言
图源:新华社
在中国社会科学院大学
媒体法研究中心主任罗斌看来
无论是哪种责任
都应当由AI技术的
研发者或使用者承担
相关网络平台应明确其主体责任
加大人力、财力、技术等多方投入
北京嘉潍律师事务所
律师赵占领则表示
减少AI谣言的产生
需要多方主体的协同参与
公众作为信息主体
也要多留个心眼
理性看待AI技术的发展
既要看到AI带来的便利和机遇
也要关注可能的问题和挑战
避免盲目跟风传播谣言
落入信息陷阱之中
撰文:雷渺鑫、马境远 编辑:李飞 排版:雷渺鑫、李汶键 统筹:李政葳
参考|央视新闻、新华社、法治网、法治周末、中国普法、澎湃新闻、长安观察
更多内容欢迎扫码查看光明网数字化频道