点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
近几个月来,以ChatGPT为代表的生成式人工智能狂飙突进,大模型时代已然降临。但大模型其内生及衍生安全威胁也愈演愈烈,数据泄露、生产有害内容、恶意滥用等安全问题层出不穷,如何解决此类问题成了当下需要思考的内容。
7月7日,记者在2023全球数字经济大会特色活动之精品主题展现场看到,已有针对性的AI治理产品可以解决上述问题。清华大学人工智能研究院孵化企业瑞莱智慧RealAI带来的能够防范生成式人工智能恶意滥用的DeepReal2.0和对通用大模型安全性进行测评及优化的人工智能安全平台RealSafe3.0就是其中代表。
瑞莱智慧联合创始人、算法科学家萧子豪告诉记者,DeepReal现已正式更名为生成式人工智能内容检测平台,它除了能够检测Deepfake内容,还新增两个功能模块,可以检测Diffusion、LLM这两类新方法生成的数据,支持对图像、视频、音频、文本进行是否伪造的检测。应用场景包括打击网络诈骗和声誉侵害行为、检测网络内容合规性、检测音视频物证真实性等,可对生成式人工智能技术滥用行为进行管控和治理。
此外,人工智能安全平台RealSafe3.0集成了主流及RealAI独有的世界领先安全评测技术,能够提供端到端的模型安全性测评解决方案,且新增了对通用大模型的评测,可解决当前通用大模型安全风险难以审计的痛点问题。
“评测只是手段,帮助通用大模型提升其自身安全性才是核心目的。”在萧子豪看来,不能因为对于被技术反噬的担忧就止步不前,创造新技术和控制技术危害应该同步进行,“我们的办法是,从源头上找到症结,再用AI打败AI。”
如果将人工智能模型比作“引擎”,数据则是模型的“燃料”。可以说,数据集质量直接影响模型的内生安全。萧子豪表示,RealSafe3.0内部集成了多个自研模型和专家论证高质量数据集,可以帮助用户修复模型中的问题。“通用人工智能的时代必将到来,如何让人工智能扬长避短,如何用人类智慧驾驭人工智能,是从业者的一道长久课题,也是我们一直努力的方向。”萧子豪说。(雷渺鑫)