点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
【洞见·TMT】
如果回顾今年初我国乃至全球科技界的热门话题,DeepSeek无疑是其中之一。1月20日,我国人工智能企业深度求索(DeepSeek)推出推理模型DeepSeek-R1,以OpenAI十分之一的成本,达到比肩其最新模型GPT-o1的表现,引发了一场围绕DeepSeek的大讨论。
就在2月10日至11日于法国巴黎举行的人工智能行动峰会期间,DeepSeek推出的人工智能模型因其低成本、低能耗及开源设计,被众多业内人士誉为激发人工智能创新的优秀案例。
DeepSeek“小力出奇迹”
DeepSeek之所以得到高度关注,与其技术创新和“高性价比”密切相关。
DeepSeek应用登顶苹果应用商店免费APP下载排行榜
2024年12月底,DeepSeek发布V3模型,其性能与GPT-4o和Claude Sonnet 3.5等顶尖模型相近,但训练成本极低,整个训练在2048块英伟达H800 GPU集群上完成,花费约557.6万美。相比之下,训练GPT-4o等模型,至少要使用上万块性能更为优越的H100 GPU,训练成本达到约1亿美元。
DeepSeek更为引人关注的是其在架构效率上的提升。相比OpenAI的ChatGPT,DeepSeek采用混合专家模型,可将任务拆分给多个专用子模块处理,资源利用率更高,大幅降低了大模型训练所需的算力要求。
而与海外大模型相比,DeepSeek训练数据以汉语为主,对复杂的汉语词汇和语境处理更为精准,使其文字输出更为流畅自然,符合汉语环境。同时,它的逻辑推导过程透明,并支持针对特定场景的深度优化。
在此基础上,DeepSeek还采取完全开源的策略,将其大模型的代码和模型参数开放,降低了中小企业部署AI的门槛。对此,美国云软件企业赛富时公司的人工智能可持续发展主管鲍里斯·加马扎伊奇科夫认为,DeepSeek模型推动了人工智能降低能耗的步伐。“它是开源的,其用户不必预先训练一个类似大小的模型,而是可以从已有模型开始(研发),这样可以节省大量能源。对全世界来说,这是一件非常好的事情,我希望看到更多像这样的开源创新。”
AI算力普惠重塑硬件行业格局
经过近两年的探索,基于大模型的生成式AI已经在国内各产业领域得到认可。DeepSeek的持续破圈,再一次“点燃”了我国AI产业链。云服务厂商、互联网平台企业纷纷接入,AI应用等产业链企业竞相使用。
不少产业链中上游企业争相“抢滩”DeepSeek。此前,腾讯云、阿里云、百度智能云、火山引擎等国内云计算企业已宣布对DeepSeek的支持。十余家国产AI芯片企业也相继宣布,适配或上架DeepSeek模型服务。
与此同时,包括汽车、金融、智能硬件等不少产业链下游企业,也持续展开对DeepSeek系列模型的应用探索。随着需求与场景的不断满足,更多搭载轻量化AI模型的创新型智能硬件密集涌现。
其中,PC外设硬件的接轨速度较快,如部分“AI鼠标”“AI键盘”,可一键拉起其提供的AI问答页面,其中包含基于DeepSeek-R1的深度思考选项。AI PC、AI手机同样是这次DeepSeek浪潮的受益者,如联想、华为等品牌,已在其AI智能体中接入了DeepSeek,提供“开箱即用”的AI功能。
从AI PC到AI手机,从智能座舱到可穿戴设备,DeepSeek正在以更低的成本、更开放的生态,重塑硬件行业的竞争格局。业内人士认为,DeepSeek“降本、增效、扩容”的综合能力,让AI变得人人触手可及的AI算力普惠,或许将成为DeepSeek对AI硬件乃至AI产业的一大贡献。(撰文:孔繁鑫 文章部分综合自新华社、澎湃新闻、世界互联网大会微信公众号、上海证券报、看看新闻Knews、财联社等)