点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
这几天,业界把刚刚闭幕的“北京智源大会”比作是一场AI界的“春晚”。会上国产大模型成了主角,会后大模型创业者们也受到了明星般地围堵、追问。
在大会主论坛上,主办方独具匠心地设置了一段大咖对话。嘉宾是零一万物CEO李开复与中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤。这已不是两位AI领域“网红”首次同台“PK”,此次他们基于自身实践,带来了大模型、AI技术的前沿思考。
“爆火”与“不足”并存
最近两年,大模型为什么能这么火?对于这个问题,李开复认为,大模型是AI有史以来最大的一场革命,但肯定还没有达到顶峰、还在推进中。国内很多大模型接近,或打平,或偶尔超过美国的大模型,所以需要专注的是其中的工程问题。
对此,张亚勤提到“三个做对了”——首先,Scaling Law(规模定律)的实现,得益于对海量数据的利用以及算力的显著提升,带动“飞轮效应”得以正循环。尽管有人质疑Scaling Law在2至3年后是否有效,但至少未来5年里仍将是产业发展的主要方向。
其次是“Token-Based”的统一表述方式。在大模型里,“Token”是一个基本元素,无论是文本、语音、图像、视频,还是自动驾驶中的激光雷达信号,甚至是生物领域的蛋白质,最终都可以抽象为一个“Token”。“Token”之间的训练、学习、生成是核心环节,这与大脑中的神经元工作原理相似,无论执行何种任务,基础机制都是相同的。
最后是通用性。现在的通用性不仅体现在文本处理上,还扩展到多模态领域;此外,在物理世界(如具身智能)和生物世界(如生物智能)中也有广泛应用前景。
对于现阶段大模型存在的问题,张亚勤提出了“三个不足”——一是效率较低。特别是大模型的计算效率低下,与人类大脑的高效性形成了鲜明对比。
二是大模型目前还未能真正理解物理世界,以及相关的推理能力、幻觉等都在深入研究中。有一个重要问题,即大模型做得再好,它在生成式表述与对真实世界的描绘之间仍存在矛盾。
三是边界问题。现在的大模型还无法知道“我不知道什么”,这是目前要解决的问题,是它的边界效应。
“大模型刚开始的时候还不知道最近一年发生了什么,还有记忆问题、窗口构成问题、幻觉问题等。这些大部分不能说是完美地,但都非常好地被解决了,我对未来非常乐观。”李开复也提到,科学和工程缺一不可,如果只做工程,肯定做不出好模型;如果只是在实验室里雕花,写一些不错的论文,期待有工程经验的人把它做成产品肯定也不行。
toB和toC哪个机会更多
大模型产业化的场景有哪些?toB和toC哪个更有机会?李开复认为,两者在国外都有机会,但在中国toC短期更有机会。
在他看来,从PC时代到移动互联网时代到AI时代,都是一样的。第一个阶段突围的是生产力工具,第二个阶段是娱乐、音乐、游戏,第三个阶段是搜索,再到下一个阶段可能是电商,后面是社交、短视频、O2O等。这是不变的定律。
“刚开始要能够赚钱、能够解决问题,但越往后难度越高,需要的用户量越高。其商业模式也往往是先堆积用户活跃数,再找商业模式,所以一定要压低成本,这样试错难度所需的投资更多。”李开复说。
在toB应用推进方面,李开复认为,toB可以给大模型带来更大价值,但这个领域也面临着巨大挑战。比如,一些大公司不愿意做重大颠覆式动作,习惯每年增加5%的预算,做去年一样的事情,只是做得更多,恐怕很难拥抱颠覆式技术。此外,很多大公司没有认识到软件价值,不愿意为软件付费,而且多家大模型公司竞标,导致价格越竞越低,做一单赔一单。“因此,我们坚决做toC,不做‘赔钱的toB’。如果找到能赚钱的toB,我们就做”。
事实上,不管ToB还是ToC,“落地”是关键。张亚勤认为,在应用和服务方面,要先ToC再ToB,ToB长一些,ToC则很快就会有应用产品。
此外,在AI分层方面,张亚勤认为,从AI路径来看,过去十年里我一直强调三个关键领域:信息智能、物理智能(即具身智能)、生物智能。在具身智能阶段,ToB应用会比ToC更快落地;在生物智能阶段则情况相反,ToC应用会先于ToB出现。尽管每个领域的具体情况不同,总体来看ToC和ToB都将存在开源模型、商业闭源模型、基础大模型,以及针对垂直行业模型和边缘模型。
在诸多具身智能场景中,自动驾驶已具备了一定的积累。张亚勤介绍,无人驾驶L4+是具身智能第一个、最大的应用,也将是第一次实现新图灵测试的应用。“无人驾驶就是一个开车的特殊机器人。虽然开得安全,但不够老练、不够‘老司机’。无人驾驶要变成主流,需要通过新图灵测试,既要是好司机,又要是‘老司机’。”
李开复则坦言,虽然具身智能很重要,但大模型非常适合虚拟世界。比如,金融公司后台、客服等场景,可以迅速落地产生价值。如果大模型接入物理世界,就会面临各种问题——安全、机械故障等,难度会大很多倍。
实现AGI还要多久
何时才能可以实现AGI(通用人工智能)?张亚勤比较乐观地分析——需要15至20年,并通过新图灵测试。
其中,5年内在信息智能领域,实现对语言、图像、声音和视频的理解、生成,并通过新图灵测试;10年内在物理智能领域,实现大模型在物理环境中的理解、操作,并通过新图灵测试;20年内在生物智能领域,聚焦人体、脑机接口、生物体、制药和生命科学等,实现大模型与生物体连结的生物智能,并通过图灵测试。
“这个问题,如果放在三年前,我可能会说50年实现AGI。但随着大模型的发展,20年就能实现。”张亚勤说。
AGI会超越人类吗?李开复认为,AGI的定义因人而异。如果把AGI理解为能做人所能做的一切事情,那就没办法定义,因为还有太多未解之谜。但只要Scaling Law继续,AI会一年比一年“更聪明”。
张亚勤补充说,20年可以实现的AGI,不包括拥有意识和情感。AGI的定义,一是要有巨大的能力,大部分任务要比人类强,而不是所有任务超越人类;二是必须要通用,过去每项任务都要用不同的模型,但AGI要有通用的大底座;三是不断升级、学习、进化,就像人类一样。
“有些研究让AI产生意识,我认为不应该从事这方面。”张亚勤认为,我们要解决的真正问题,是把人工智能作为我们的工具、我们的延伸、我们的Agent(指能自主活动的软件或硬件实体,翻译为‘代理’),而不是另外一种物种。
假如AGI有了“自我意识”,并且超越人类,人类是否会面临巨大风险?李开复很是笃定:“存在!但概率不会很高。”
他认为,当前大模型的训练方法还不至于让人过度担忧。技术是中性的,每个科技时代都有技术带来的难题,最后人类都有方法解决。所以,持谨慎、乐观的态度,短期内最担忧的应该是坏人用它做坏事;中长期看建议“以子之矛,攻子之盾”,以更好的技术解决技术带来的挑战,让“AI for Good”真正造福人类。
“随着AI能力不断扩大,风险也在不断扩大。我并不担心AGI会出现意识、会掌控人类。”不过,张亚勤也提醒,如果现在不重视AI治理,当AGI达到一定能力并被大规模部署时,可能存在失控风险。也就是说,未来机器人数量可能比人多,大模型被用到基础物理设施、金融系统,包括国家安全、军事系统等方面,就可能会有失控的风险。“我对技术发展永远持乐观态度,人类有两种智慧,一种是发明技术的智慧,一种是引导技术走向的智慧。相信我们会达到平衡,但前提是现在就要采取行动”。(记者李政葳)