LLaDA – 人大高瓴AI联合蚂蚁推出的扩散大语言模型
2025-03-17 15:29:09 小编:六六导航站
LLaDA是什么
LLaDA(Large Language Diffusion with mAsking)是中国人民大学高瓴AI学院李崇轩、文继荣教授团队和蚂蚁集团共同推出的新型大型语言模型,基于扩散模型框架而非传统的自回归模型(ARM)。LLaDA基于正向掩蔽过程和反向恢复过程建模文本分布,用Transformer作为掩蔽预测器,优化似然下界实现生成任务。LLaDA在预训练阶段使用2.3万亿标记的数据,基于监督微调(SFT)提升指令遵循能力。LLaDA在可扩展性、上下文学习和指令遵循等方面表现出色,在反转推理任务中解决传统ARM的“反转诅咒”问题。其8B参数版本在多项基准测试中与LLaMA3等强模型相当,展现了扩散模型作为自回归模型替代方案的巨大潜力。

LLaDA的主要功能
高效生成文本:能生成高质量、连贯的文本内容,适用于写作、对话、内容创作等场景。强大的上下文学习能力:根据上下文快速适应新任务。指令遵循能力:能更好地理解和执行人类指令,适用于多轮对话、问答和任务执行等场景。双向推理能力:解决传统自回归模型的“反转诅咒”,在正向和反向推理任务中均表现出色,例如诗歌补全任务。多领域适应性:在语言理解、数学、编程、中文理解等多个领域表现出色,具有广泛的适用性。LLaDA的技术原理
扩散模型框架:基于正向掩蔽过程(逐渐将文本中的标记掩蔽)和反向恢复过程(逐步恢复被掩蔽的标记)建模文本分布。支持模型用非自回归的方式生成文本,避免传统自回归模型的顺序生成限制。掩蔽预测器:用普通的Transformer架构作为掩蔽预测器,输入部分掩蔽的文本序列,预测所有掩蔽标记。让模型能捕捉双向依赖关系,而不仅仅是单向的左到右生成。优化似然下界:基于优化似然下界训练模型,在生成建模中是原理性的,确保模型在大规模数据和模型参数下的可扩展性和生成能力。预训练与监督微调:LLaDA基于预训练和监督微调(SFT)相结合的方式。预训练阶段用大规模文本数据进行无监督学习,SFT阶段基于标注数据提升模型的指令遵循能力。灵活的采样策略:在生成过程中,LLaDA支持多种采样策略(如随机掩蔽、低置信度掩蔽、半自回归掩蔽等),平衡生成质量和效率。LLaDA的项目地址
项目官网:https://ml-gsai.github.io/LLaDAGitHub仓库:https://github.com/ML-GSAI/LLaDAarXiv技术论文:https://arxiv.org/pdf/2502.09992LLaDA的应用场景
多轮对话:用于智能客服、聊天机器人等,支持流畅的多轮交流。文本生成:适用于写作辅助、创意文案等,能生成高质量文本。代码生成:帮助开发者生成代码片段或修复错误,提升编程效率。数学推理:解决数学问题,提供解题步骤,可用于教育领域。语言翻译:实现多语言翻译,促进跨文化交流。- 猜你喜欢
-
MusicTGA-HR提示指令
-
RappingAI提示指令
-
Boomy提示指令
-
TwoShot提示指令
-
Weet提示指令
-
Muzaic Studio提示指令
-
-
HookGen提示指令
-
DadaBots提示指令
- 相关AI应用
-
Playlistable提示指令
-
Riffusion提示指令
-
WZRD提示指令
-
-
Cyanite.ai提示指令
-
Piano Genie提示指令
-
Synthesizer V提示指令
-
Cosonify提示指令
-
Musico提示指令
- 推荐AI教程资讯
- LLaDA – 人大高瓴AI联合蚂蚁推出的扩散大语言模型
- Agentic Reasoning – 牛津大学推出增强LLM推理能力的框架
- 瑞智病理大模型 – 瑞金联合华为推出的多模态互动式病理大模型
- 一群技术人拉横幅围堵 OpenAI,不禁 AI 就一直闹!
- Step-Audio-TTS-3B – 高性能 TTS 模型,能生成特定情感和说唱风格的语音
- CLaMP 3- 清华团队推出的音乐信息检索框架
- DeepSeek 点燃AI编程新战局,深度探讨编程范式变迁与实践
- SWE-Lancer – OpenAI 推出的大模型基准测试
- DynamicCity – 上海 AI Lab 推出的4D动态场景生成框架
- MoBA – Moonshot AI 提出的新型注意力机制
- 精选推荐
-
元典智库2024-12-31法律助手
-
Noise Eraser2025-02-18提示指令
-
通义千问2025-01-30提示指令
-
Copypage2025-02-19法律助手
-
Content Writer Tools2025-01-30法律助手
-
Guide.AI2025-02-21提示指令