点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
11月27日,2024网络安全创新发展大会·人工智能发展与治理分会在北京举行。本次会议由中国计算机学会计算机专业委员会指导,国家信息中心《信息安全研究》杂志社主办,光明网网络安全频道&数字化频道、中移互联网有限公司、蚂蚁科技集团股份有限公司协办。北京瑞莱智慧AI治理研究院院长张伟强主持会议。
上海人工智能实验室副研究员林懿伦从社会技术系统的视角分享了对AI发展态势的思考。他表示,互联网的数据积累带来了LLM的突破,AI模型发展又反过来催生了海量的数据需要。而目前AI与数据的链路并未打通,需要构建AI评测和治理体系以有效连接产业和需求,从而真正实现和释放智能和数据的价值。
北京智谱华章科技有限公司资深技术专家初宪表示,人工智能发展经过了三次浪潮,大模型成为新一代人工智能应用的基础设施。智谱在千亿基座模型、代码模型、对话模型、多模态模型等方面有完整布局,新一代 GLM-4-Plus 模型在语言理解、指令遵循、长文本处理等方面性能得到全面提升,在各大语言文本能力数据集上获得了与 GPT-4o 相当的水平。
北京中伦律师事务所合伙人陈际红介绍,我国大模型“出海:”的一般路径为调研当地的政策法律环境,识别法律风险;选择适合的出海模式,制定投资和经营计划;遵循适用的法律要求和合规程序。他进一步介绍了世界各国关于人工智能的监管立法情况,以及数据保护与数字市场监管思路,并从技术进出口管制、知识产权保护、伦理审查等多个方面分析了大模型出海所面对的挑战。
浙江大学滨江研究院数智融合研究中心主任韩蒙介绍,近年全球各国发布多项人工智能产业政策文件、法律法规,高度重视人工智能标准化发展、安全监管以及人才培养。浙江大学团队已牵头或参与国际、国家、行业、团体安全合规标准二十余项,支撑多个部委相关工作,先后开发了大规模预训练模型合规评测系统、人工智能安全教学实训平台、人工智能风险科研平台、人工智能安全靶场平台等研究成果。
网易易盾总经理朱浩齐介绍了AIGC内容安全治理实践成果。随着AI技术的发展,AIGC与UGC风险交织给数字内容安全带来了新的挑战,更多高质量的数字化信息诞生,内容风控难度越来越大。他认为,在AI转型中要注意AIGC围栏防护能力,以AI驱动内容安全防护水平升级,推动AI内容安全能力成熟度自动化评测及AIGC能力评估体系建设。
北京竞天公诚律师事务所合伙人周杨律师介绍了AIGC的主要风险、法律框架、各国主要监管政策以及企业为合规需做好哪些准备。她从AICG的运行原理及所伴生风险的全生命周期出发,并结合《生成式人工智能服务管理暂行办法》《人脸识别技术应用安全管理规定(试行)(征求意见稿)》等多项法规制度,提出了多层面的合规准备工作建议。
深圳铸思科技有限公司联合创始人兼技术总监柳江聚焦AI时代众源数据采集的安全风险,通过典型案例分析,给出了可行的应对思路。Transformer类架构在自然语言处理(NLP)、计算机视觉(CV)等领域得到了广泛应用,且在各类应用中均表现出了良好性能,但其对数据的诉求远超以往的模型架构,“算力+数据”是大模型成功的关键。(记者 赵鹏超 孔繁鑫 实习生 孙新武)