在通往 AGI 的道路上,大语言模型(LLM)和多模态大模型(MLLM)的自回归架构似乎已经成为了“真理”。然而,这种基于一维序列的线性推理模式,在处理长程、视觉中心任务时,正暴露出明显的短板——它缺乏全局观,且难以纠错。
近日,上海人工智能实验室联合南京大学、香港中文大学及上海交通大学,在这个MLLM 统治的多模态推理领域撕开了一道口子。
他们提出的DiffThinker模型,并没有试图教会 MLLM 如何更好地“说话”,而是利用扩散模型(Diffusion Models)构建了一种全新的视觉推理范式,在视觉中心任务上,其准确率足以碾压 GPT-5 和 Gemini-3-Flash,以及同数据训练的Qwen3-VL-32B。
论文地址:https://arxiv.org/pdf/2512.24165
项目主页:https://diffthinker-project.github.io
代码仓库:https://github.com/lcqysl/DiffThinker
逃离一维诅咒:为什么选 Diffusion?
当人类解决一个迷宫问题时,我们不会像 LLM 那样,在脑子里一行行地写出“先向左 3 步,再向上 2 步……”的文本代码。相反,我们会俯瞰全局,在瞬间构建出一条视觉路径。
这正是 DiffThinker 的核心洞见:复杂的视觉推理,不应被强行降维成符号序列。
扩散模型的“天赋”:原生并行推理
DiffThinker 的成功,很大程度上归功于扩散模型自带的物理特性。在推理的初始阶段(高噪声状态),DiffThinker 并不是像 LLM 那样只能试探一条路。相反,它在潜在空间中同时激活了多条可能的路径分布。随着去噪步数的推进,那些不符合约束条件的路径概率逐渐消失,模型自动收敛到最优解,实现了原生的并行推理(Native Parallel Reasoning)。
实验结果:碾压级的性能
研究团队在四个领域的七大任务上进行了系统评测,包括:
长程规划:VSP, VSP-Super, Maze(迷宫)
组合优化:TSP(旅行商问题)
约束满足:Sudoku(数独)
空间推理:Jigsaw(拼图), VisPuzzle
主要结果如下:
DiffThinker在所有任务上的平均得分高达87.4,而 GPT-5 仅为 21.1,Gemini-3-Flash 为 41.3。同数据训练的Qwen3-VL-32B也只有62.9。
1+1 > 2:DiffThinker与MLLM合作
扩散模型虽然直觉强,但会不会缺乏逻辑严密性?
DiffThinker 给出的方案是:协同推理(Collaborative Reasoning)。
在实验中,DiffThinker 扮演了“直觉系统”的角色,快速生成多个高置信度的候选视觉解;而 MLLM 则扮演“验证系统”,负责对这些视觉解进行校验。
结果显示,这种合作实现1+1>2的效果,超过各自单一模型。
结语
如果说 Transformer 代表了人类的逻辑与语言能力,那么 Diffusion Model 正逐渐展示出推理中所需的空间直觉与想象力。当两者真正结合,我们要面对的,可能才是真正的通用智能。