当大模型的性能竞赛持续加速,人工智能研究的下一步该怎么走?4月18日至19日,2026人工智能基础大会(FAIC)在上海财经大学统计与数据科学学院举行。会议传递出一个清晰信号:在持续提升模型能力的同时,人工智能研究正在进一步走向基础问题,围绕机理、效率、稳健性与长期创新展开更深入的探索。

来自北京大学、清华大学、上海财经大学、中国人民大学、上海交通大学、复旦大学、南京大学、浙江大学、香港大学、香港科技大学(广州)等高校、科研机构及企业的400余位不同学科的学者与从业人员参会。围绕“大模型为何有效”“能力如何形成”“训练怎样更高效、更稳健”“如何以扎实研究支撑下一阶段创新”等关键问题,与会专家展开了集中讨论。
大会日程体现出鲜明的问题导向。主旨报告环节,多位专家从模型结构、数学智能化、大模型机理等角度展开分享,既聚焦基础理论,也回应技术演进中的现实挑战。

在开场的主旨报告中,北京大学林宙辰教授做了题为《Towards Affine and Projective Equivariant Networks – A Differential Invariant Approach》的报告,聚焦深度网络中的等变性问题。针对现有等变网络大多集中于旋转、平移等相对简单变换,而难以有效处理仿射与投影变换的难点,他介绍了团队利用微分不变量设计实用的仿射与投影等变网络的最新工作。相关研究表明,将更强的几何等变性引入深度网络设计,有助于提升模型在图像识别等任务中的参数效率与鲁棒性,也为复杂视觉场景下的模型结构创新提供了新的思路。

在《AI for Mathematics:数学的数字化与智能化》报告中,北京大学董彬教授则从人工智能与数学交叉的角度,讨论了AI如何更深度地赋能数学研究。他指出,提升人工智能数学推理能力的关键之一,在于推进数学知识的形式化,即推动数学进一步“数字化”。报告系统梳理了AI4M(AI for Mathematics)领域近年来的发展脉络,并介绍了北京大学AI4M团队在形式化模型与工具设计、自动推理系统构建以及高质量评测集开发等方面的阶段性成果,展现了人工智能服务基础科学研究的广阔空间。

在题为《大模型机理初探》的报告中,上海财经大学陆品燕教授则将关注点进一步落在“大模型为何有效”这一基础问题上。他指出,尽管大模型能力近年来快速提升,不断刷新学界和业界对人工智能能力边界的认识,但相比之下,人们对于大模型内在机理的理解仍然相对有限。结合自己从理论计算机研究转向关注大模型算法与机理的研究经历,陆品燕分享了其近一年来对大模型机理问题的学习与思考,强调人工智能发展不仅需要持续推进能力提升,也需要加强对模型行为、能力来源和复杂性机制的基础研究。
从主旨报告可以看出,当前人工智能研究正从更强调经验驱动的阶段,逐步走向理论探索、方法创新与系统能力协同推进的新阶段。本次大会所关注的,已不只是“模型做得多大、性能提得多高”,而是进一步追问模型能力形成的内在机制,以及人工智能如何在更扎实的理论与方法支撑下实现可持续发展。
平行论坛则进一步拓展了当前研究议题的纵深与交叉。论坛覆盖大模型训练与对齐、机器学习理论、优化方法、图机器学习、模型加速、数据优化等多个方向。与会者不仅关注如何让大模型训练得更高效、更稳定,也关注模型行为背后的内在规律,以及人工智能与科学研究、复杂场景应用深度结合的可能性。多场讨论传递出一个共识:面对模型规模扩大、训练成本上升和应用需求提升等现实挑战,单靠某一类方法已经难以支撑下一阶段发展,需要在基础理论、方法创新和系统优化等多个层面同时寻找突破。

其中,4月19日下午举行的平行论坛“大模型训练与数据优化”受到广泛关注。该论坛由清华大学吕凯风助理教授主持,围绕大模型从预训练到后训练、再到对齐优化的关键环节展开讨论,形成了较为完整的技术链条。在“低成本大模型训练技术”报告中,清华大学陈文光教授结合开源2B模型的完整预训练实践,系统介绍了学术界开展大模型训练的关键路径,内容涉及数据清洗、多阶段训练策略、国产芯片适配以及训练过程中的气泡压缩等优化问题。报告展示了在资源相对受限的条件下,学术界如何通过工程优化与流程协同推进大模型训练,也体现出对国产技术适配、通用技术优化和全流程开源实践的持续探索。随后,清华大学张景昭助理教授在“Data Optimization for LLM Mid-training and Post-training”报告中,围绕大模型中训练、监督微调(SFT)和强化学习验证奖励等不同阶段所需的数据特征展开分析,回应了“训练数据是否越难越好”等业界关注的问题。报告尝试在公平、可比较的框架下讨论不同数据策略对模型能力的影响,并对相关训练方法能否持续带来性能提升进行了进一步辨析,展示了对大模型训练数据全流程的系统性思考。在“大模型对齐中的弱到强泛化机理研究”报告中,同济大学汪子乔助理教授聚焦“弱模型如何辅助更强模型持续进步”这一关键问题,介绍了其团队关于损失函数设计、优化动态与弱到强泛化机制的研究进展。报告回应了一个基础性问题:当模型能力不断提升、甚至超出人类直接监督边界时,如何继续构建有效的对齐路径,推动模型在更强能力水平上保持可控、可优化的发展。这一论坛从预训练、数据优化到超级对齐,较为完整地串联起大模型“如何被训练出来、如何持续提升、如何实现更有效对齐”的核心链路,也折射出当前人工智能基础研究正在从单点突破走向全流程协同优化。


除了报告内容本身,会场内外的互动也十分活跃。主旨报告后的提问直接而具体,交流延续到走廊和海报展示区,不同研究方向之间的碰撞带来了不少新的交叉视角。自由讨论环节中,与会学者没有停留于单纯的技术细节,而是进一步围绕“基础研究如何支撑实际发展”“模型能力与训练效率如何统筹”“应用需求如何反馈基础研究”等议题展开务实对话。
FAIC 2026的召开,恰逢人工智能研究更加重视基础、重视规律、重视长期积累的关键阶段。无论是模型结构设计、训练方法改进,还是数据质量提升与交叉应用拓展,最终都离不开扎实的基础研究支撑。大会没有刻意追求“惊人的结论”,却释放出一个鲜明信号:面对人工智能进入“深水区”的现实挑战,学界与业界正在更系统地回到那些绕不开的基础问题,并尝试一步步给出答案。
( 供稿:校一皓(学) 供图:段海娇 编审:张勃欣 收稿日期:2025年4月22日)





