大语言模型领域迎来创举! Inception Labs 推出首款生产级扩散式LLM(Mercury),采用非顺序生成模式,性能实现双 10倍突破(速度提升10倍/成本降90%)。
传统LLM采用的自回归生成模式存在固有瓶颈——逐词生成导致长文本任务延迟高、计算消耗大。Mercury的突破在于借鉴图像扩散模型,采用 「全图绘制」逻辑:首先生成完整但粗糙的文本框架,再通过多轮迭代优化细节,最终输出精确结果。
技术优势体现在三个层面:
全局感知能力:模型能从整体视角优化输出,减少逻辑矛盾
灵活编辑特性:支持任意顺序调整token,满足格式审查等硬需求
跨模态适配:已完成代码生成等结构化任务验证,耗时仅为传统模型1/6
行业专家安德烈·卡帕斯指出,该突破突破了文本扩散长期存在的离散符号噪声处理难题。Mercury 的核心价值在于开辟了并行化文本生成新路径,为终端设备部署高性能LLM提供了可能性。
该技术目前虽处早期阶段,但其展示的潜力已改变LLM演进方向预期。随着工程优化推进,未来可能催生兼具类GPT理解力与扩散模型效率的新架构,这不仅是技术迭代,更是对语言生成本质的重新解构。