点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
2025年,人工智能发展进入加速阶段。中国大模型崛起、具身智能爆发、AI应用“狂飙”……AI正在悄然重塑世界。当ChatGPT能够撰写论文、MidJourney可以生成专业插画、AlphaFold可破解蛋白质结构时,一个根本性的问题摆在大家眼前:在这个专业技能随时可能被AI降维打击的时代,人类如何培养不可替代的能力?AI又将如何解决发展困境?在2025世界人工智能大会WAIC UP!之夜活动上,来自不同行业的AI使用者分享了对AI时代的思考。
◆上海交通大学长聘副教授张拳石:可解释性是释放AI潜力的关键
张拳石深刻剖析了当前大模型发展面临的两大核心挑战:Scaling Law的局限性及模型决策逻辑的不可解释性。他指出,AI产业正陷入评测、训练和推广的三重困境。针对这些难题,张拳石团队提出了突破性的“等效与或交互”理论,通过数学方法证明神经网络决策逻辑可被稀疏符号化解释,实现了从“黑箱”到“透明化”的理论突破。该理论不仅能精准识别和修复模型表征缺陷,提升训练效率以突破Scaling Law限制,更为军事、法律、医疗等高敏感领域提供了可信AI解决方案。张拳石强调,可解释性不应被视为性能的约束,而是释放AI潜力的关键,未来需要构建多层次的可解释AI生态系统,推动AI发展从“更大”转向“更深”和“更懂”,最终实现性能与可信度兼备的新一代人工智能。
◆牛津大学赛德商学院人机互动实验室创始主任胡可嘉:AI时代人类应培养不可替代的能力
当AI在标准化测试中已超越99%的人类表现时,我们是否正面临一场认知能力的“降维打击”?胡可嘉表示,数据揭示的替代危机,实则暴露了现代教育体系的致命缺陷。“我们仍在批量生产擅长‘机械认知’的劳动力。”胡可嘉通过数据揭示了AI对人才市场的颠覆性影响:高学历、高薪岗位正面临30%~50%的替代风险。她以历史规律指出,农业机械化曾淘汰体力劳动,而AI时代将淘汰低阶脑力劳动,催生需深度决策的新职业。胡可嘉强调,战略思考比战术勤奋更重要,唯有将AI作为“脑力杠杆”,才能开辟蓝海市场。
◆Hugging Face工程师王铁震:开源对构建可信AI至关重要
王铁震用“开放式厨房”的比喻形象区分了透明性与可解释性:前者关注全流程可见性,后者侧重决策原因分析,并从模型透明性的独特视角,通过数据集、动机和知识结构不透明的三个生动案例阐述了开源对构建可信AI的关键作用。他表示,要警惕生成引擎优化(GEO)技术可能导致大模型输出被商业动机操控的风险。王铁震以“杨梅图像生成”和“老年人口音识别”为例,指出了数据孤岛带来的技术普惠难题,并强调,开源工具能提升信息筛选的透明度。(路琦)