点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
随着大模型技术加速落地与智能体的规模化应用,AI已从实验室全面渗透至千行百业。然而,在技术红利持续释放的背后,AI安全风险正进入“集中爆发期”,呈现出“内忧外患”的复杂态势。
“AI在落地过程中面临的安全挑战已远超网络与数据安全的原有边界。”在ISC.AI 2025未来峰会上,360数字安全集团总裁胡振泉直击AI安全痛点。
胡振泉分析到,从内部来看,AI存在与生俱来的“四大基因缺陷”:一切皆可编程、一切皆可模仿、一切皆可生成、一切皆可调度。从外部来看,一方面,针对AI系统的攻击将变成大国博弈的关键;另一方面,黑灰产利用AI批量制造攻击武器,甚至部署“黑客智能体”,传统安全防御体系难以应对。
“这些风险交织,使得AI安全的复杂程度远超传统范畴”。胡振泉强调,AI安全既涵盖网络、数据等传统安全问题,也涉及AI内容安全、应用安全及未来场景安全。广大政企机构在AI落地过程中面临的安全挑战,已远远超出网络与数据安全的原有边界,亟需一套系统性的创新解决方案。
当前,传统安全企业因缺乏对AI技术的深度理解,在应对AI安全问题时往往“盲人摸象”;而大模型企业则因安全技术积累与攻防实践经验不足,难以提出有效的解决方案。360大模型安全卫士通过四大安全智能体形成闭环防护体系:内容安全智能体、AI Agent安全智能体、软件安全智能体、安全风险评估智能体。
“这四大智能体协同发力,形成从内容生成到任务执行、从开发上线到风险评估的全链路防护,真正实现用AI思维解决AI安全问题。”胡振泉说。(李政葳)