击败自回归,让扩散再次伟大!

DeGao 2025-08-04 21:42:41
ChatDLM、Mercury、Gemini Diffusion、Seed Diffusion Preview,这个赛道已经涌入了四大玩家,显性优势就是:“别管对不对,你就说快不快吧!”

话说,ChatDLM 还研发了一款扩散增强的工具,ControlText,灵感来自ControlNet。

在视觉领域,ControlNet 能在大模型中插入特定“控制层”;同理,ControlText 可在文字扩散的每一步注入“检索标签”或“验证信号”。

值得深思的是,扩散语言模型这玩意儿,不仅是数独高手,还是代码专家,看起来大家都在卷代码方向,DLM也是很能打的。

说到这里,其实Deep Research方向也可以一战,Deep Research作为智能体的高频工具代表,最大的问题就是慢、贵。

所以说,DLM方向还会和DR方向有深度的结合,从这个角度来看,Google 发布基于扩散的TTD-DR,其实在长内容质量方面,也是很能打的。

基于 草稿生成→检索注入→自演化评估→扩散更新 这条流水线,设计为集成式条件扩散,使草稿更新与扩散过程紧密耦合,这应该会出现更原生的DLM-DR。

考虑到DLM的推理速度飞快,可能对Deep Research会产生深刻影响。

传统DR流程的时间分解大概是:

查询规划与检索:30-60秒

多轮推理与综合:180-240秒

结果验证与输出:30-60秒

2800 Tokens/S意味着生成一个5000字的研究报告只需要不到3秒,这完全颠覆了DR的时间瓶颈分布。

直接影响:

从5分钟压缩到30-60秒:推理环节从占比80%降到不足10%

瓶颈转移:检索API调用、网络延迟、数据解析变成新的限制因素

交互模式改变:用户可以实时调整研究方向,而不用等待完整结果

更深层的变化:

研究深度vs广度权衡:极速生成允许多路径并行探索,可以同时生成多个角度的分析

实时协作成为可能:用户可以在DR过程中实时干预和引导

成本结构重构:计算成本大幅下降,但对检索质量和API调用的要求会更高

潜在的新玩法:

流式DR:边检索边生成边展示

多假设并行验证:同时生成多个研究假设并快速验证

交互式深度挖掘:用户实时选择感兴趣的分支进行深入

DLM原生DR可能是真正的"检索增强扩散",而不是"扩散增强检索"。

很高兴你能耐心的读完我的文章,你一定不想在AI时代错过原创、深挖的消息,请关注DeGao的Twitter,不迷路!

相关资讯