点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
“DeepSeek·深一度”系列③
近年来,国产大模型在技术创新与市场应用上突飞猛进。就在上月底,国产人工智能大模型深度求索(DeepSeek)“小力出奇迹”,短短数日便积累超3000万用户。然而,快速发展的背后,一些隐患、漏洞也浮出水面。国产大模型在安全架构、漏洞响应、数据合规等方面的“系统性短板”,亟需从技术到生态进行全面重构。
安全架构现短板,内部防线要筑牢
“DeepSeek能成功,关键在于做到了降本增效。”中关村现代信息消费应用产业技术联盟副理事长包冉分析,DeepSeek采用多头注意力机制,降低计算精度,还运用无监督人类强化学习等方法,大大节省了成本。这一创新模式,为国产大模型的发展提供了新的思路和方向。
对于DeepSeek“小力出奇迹”,得到各方一致认可。但国产大模型安全问题,也同样备受关注。有业界分析认为,相较于国际上的大模型,部分国产大模型在安全架构设计和漏洞检测与修复机制上存在一定短板。
对此,长亭科技联合创始人龚杰介绍,国际上许多领先企业已逐步引入零信任理念,对内部网络、接口和数据传输实施严格验证。但在国产大模型系统中,往往依赖传统基于外围防护的模式,内部访问控制和细粒度权限管理不够严格,存在内外部威胁共存的风险。
也就是说,存在“外紧内松”的架构设计,无异于在城门大开时高筑外墙。
龚杰建议,在安全架构设计上,需从全链路安全、分层防护及零信任等先进理念中汲取经验;在漏洞检测与修复上,要提升自动化检测能力和响应速度,并构建闭环管理;在数据合规性审查和上线前安全测试环节,重视数据来源合法性、敏感信息脱敏、针对性测试设计及持续监控,确保整个模型生命周期的安全性。
漏洞不容忽视,安全检测需要跟上
随着DeepSeek大模型的“出圈”,越来越多的公司和个人选择将该开源大模型进行私有化部署或本地部署。其中,进行此类部署的主流方式之一,是使用开源大型语言模型服务工具“Ollama”,但安全漏洞也频频暴露。
前几天,奇安信资产测绘鹰图平台监测发现,8971个运行了0llama大模型框架的服务器中,有6449个活跃服务器。其中,88.9%的服务器“裸奔”在互联网上,这也使得任何人不需要任何认证即可随意调用、在未经授权的情况下访问这些服务,有可能导致数据泄露和服务中断,甚至可以发送指令删除所部署的DeepSeek、Qwen等大模型文件。
奇安信董事长齐向东认为,安全能力评估体系的不完善进一步加剧了风险。国内缺乏统一的安全指标和实时风险评估标准,许多模型上线前仅关注性能测试,忽视对抗攻击、数据中毒等专项检测。“这无疑给安全埋下了隐患”。
分析对比国际案例,启明星辰集团技术副总裁张忠杰认为,微软通过MSRC为AI相关漏洞提供最高3万美元的奖励,并明确漏洞类型和危害等级;OpenAI则通过HackerOne平台进行漏洞报告,确保流程透明;而国产大模型通常依靠邮件沟通,且缺少激励机制,漏洞处理方式较为被动。
此外,大模型上线前安全测试环节的风险也暗藏风险。“多数模型上线前只测性能,不测极端场景。”龚杰指出,如果大模型测试用例设计不足,未能充分模拟实际应用中可能遭遇的恶意输入和异常场景,忽视对抗攻击、数据中毒、模型篡改、后门检测等新型威胁的专项测试,可能导致无法及时发现模型安全缺陷。
比如,DeepSeek的“越狱”漏洞,就是因为未模拟恶意输入而未被提前发现。甚至一些团队为追求商业化速度,将测试环境与真实部署环境隔离,导致“实验室安全”与“现实风险”严重脱节。
警惕数据合规陷阱,严守安全红线
面对国产大模型存在的诸多安全短板,重构安全体系迫在眉睫。这需要从多个层面入手,综合运用多种手段,打造一个全方位、多层次的安全防护网络。齐向东曾感慨:“人工智能伴生的安全风险超乎想象”,数据泄露、认知战、供应链漏洞,每一项都可能成为国产大模型发展路上的“致命伤”。
与传统IT系统不同,大模型有着特有的安全风险。对大模型训练数据的合规性审查,以及上线前安全测试是安全防护的关键环节。
张忠杰谈到,训练数据的安全性至关重要。如果使用存在数据投毒的第三方训练数据集,就可能在模型训练过程中被植入恶意触发器,导致模型在遇到特定输入时输出异常结果,甚至泄露敏感数据。在DeepSeek遭遇的网络攻击事件中,研究人员通过诱导输入成功获取API密钥,这正是数据预处理环节脱敏不足造成的后果。
龚杰也表示,应采用数据分类分级管理,对核心敏感数据进行端到端加密,并建立数据血缘追踪体系,确保数据在全生命周期内可审计。
永信至诚副总裁付磊也透露,大部分企业在激烈竞争下都会选择压低安全成本,让AI“先跑起来”,跌倒了再说。但是实际上在快速竞争中,AI大模型因为安全问题导致的数据泄露、服务停滞、品牌危机等,有可能带来更大问题。
打造生态共同体,联合抵御行业风险
一次次的安全事件证明,没有安全兜底的技术跃进,终将沦为沙上筑塔。张忠杰认为,大模型在安全领域的应用潜力巨大,凭借其卓越的推理能力、定制化的训练方式和开源特性,能够有效提升各种安全任务的执行效率和准确性。随着开源带来的机遇与挑战,探索其在安全领域的创新应用成为关键方向。
大模型是一个覆盖多行业的交叉生态系统,其安全绝非单点突破。北京大学法学院副教授吴沈括强调,应依据网络安全法、数据安全法等法律法规,强化跨境攻击溯源与应急处置工作,将技术防范与法律威慑有机结合,双管齐下。
天融信解决方案专家张博指出,安全问题不只是技术问题,需要政府、企业、科研机构、行业协会、社会组织等多方力量参与到国产大模型安全风险的综合治理当中,采用“技术防护、制度约束、社会生态”三位一体的方式来公共应对。我们在采取技术应对措施的同时,还应该考虑大模型应用的分类分级管理、建立AI服务可追溯制度,以及不断完善AI大模型的数据安全和个人信息保护规范。
有从业者直言,随着越来越多的应用场景落地,也会带来越来越多的新风险。对此,付磊坦言,AI创业公司在飞速发展的过程中,安全不能成为发展的负累,但也不能成为建设的盲区。因此,企业不仅需要在隐私计算、可解释性等研发领域重点布局,也需要在全生命周期中,持续建设人工智能系统的“原生安全”能力,提高对人工智能系统安全性、稳定性的掌控。
DeepSeek网攻事件如同一面镜子,照见国产大模型“重应用、轻安全”的行业症结。当技术狂奔时,安全不应被后置。国产大模型只有筑牢安全防线,方能在数字化浪潮中站稳脚跟。
光明网网络安全频道、数字化频道出品
监制:张宁 策划:李政葳 撰文:雷渺鑫、刘昊
相关阅读: