点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
日前
在意大利威尼斯举办的
AI安全会议上
多位顶尖人工智能(AI)科学家
发出警告——
AI技术可能在几年内
超越其创造者的能力
人工智能系统的滥用或失控
可能给全人类带来灾难性后果
特斯拉CEO埃隆·马斯克曾感叹
“AI技术的进步速度
比我见过的任何技术都要快得多”
面对马斯克所描绘的
可能带来物质极大丰富
但又存在潜在威胁的AI技术
我们该如何
让它“飞”得更高的同时
牵好手中管控风险的“线”?
AI安全是“全球公共产品”
2024世界人工智能大会期间发布的
《人工智能安全作为全球公共产品》
研究报告首次提出
应将人工智能安全
视为“全球公共产品”的理念
提倡各方致力于建设具有公共性的
安全知识、能力、资源
统筹安全与发展双重目标
在AI安全会议上
科学家们也建议
将人工智能安全
视为全球公共产品
并为推动风险的全球治理而努力
各国应将AI安全
纳入学术与技术合作的核心领域
呼吁各国政府和研究人员联手应对
AI可能带来的灾难性风险
一方面
各国应设立
在其境内监测和应对
人工智能事故与灾难性风险的部门
另一方面
各国监管部门应协同合作
制定应对重大人工智能事故
与灾难性风险的全球应急计划
“创新和安全不是互斥的”
“综合考虑,我认为加州应该
通过SB 1047人工智能安全法案”
近期,马斯克发帖力挺
美国加州一项拟议中的AI安全法案
这项法案要求
对于规模大、功能强大的人工智能系统
开发者在向公众发布这些模型之前
应进行安全测试
并规定
在加州运营的人工智能模型开发者
须制定应对模型失控的关闭方法
SB 1047法案的提出者认为
创新和安全不是互斥的
尽管大多数人工智能领域的创新者
都是道德的并愿意对社会负责
但实践表明
单靠行业自我监管是不够的
还要不断探索人工智能的
法律解决方案和治理模式
2023年8月15日
中国政府发布
《生成式人工智能
服务管理暂行办法》
这是中国首次
对AIGC研发与服务作出明确规定
也是全球首部
针对AIGC进行监管的法律文件
美国去年10月的一项行政命令
为人工智能安全制定了新标准
行政令提出一系列要求
如美国强人工智能系统的研发人员
需与政府分享其安全测试结果;
制定严密的合成生物检查新标准
防范使用人工智能设计
危险生物材料的风险;
建立检测人工智能生成内容
和验证官方内容的标准和最佳实践
帮助民众防范人工智能驱动的欺诈等
在欧洲
《人工智能法案》已于今年3月
获欧洲议会正式通过
作为全球首部
关于人工智能的综合性立法
欧盟采纳以风险为基础的路径
对人工智能进行监管
这一立法思路为全球其他国家
提供了重要借鉴
撰文:孔繁鑫、刘鑫坤 编辑:李飞 排版:李汶键 统筹:李政葳
参考|人民日报、新华社、参考消息、中国新闻网、雷峰网、金融界
光明网出品
更多内容欢迎扫码关注“光明网数字化频道”