Warning: mkdir(): No space left on device in /www/wwwroot/zhenghe1718.com/func.php on line 127

Warning: file_put_contents(./cachefile_yuan/my4fast.com/cache/f3/d0f1a/cf0ee.html): failed to open stream: No such file or directory in /www/wwwroot/zhenghe1718.com/func.php on line 115
蚂蚁集团联合中国人民大学发布首个原生MoE扩散语言模型



  • 榴莲视频APP下载观看官网,榴莲视频APP污,榴莲视频下载APP,榴莲WWW视频在线下载

    游客发表

    蚂蚁集团联合中国人民大学发布首个原生MoE扩散语言模型

    发帖时间:2025-09-14 23:17:14

    大象新闻记者 李莉 李磊 张迪驰

    9月11日,在2025外滩大会上,蚂蚁集团与中国人民大学联合发布业界首个原生MoE架构的扩散语言模型(dLLM)“LLaDA-MoE”。

    大象新闻记者了解到,该模型通过非自回归的掩码扩散机制,在大规模语言模型中实现了与Qwen2.5相当的语言智能(如上下文学习、指令遵循、代码和数学推理等),挑战了“语言模型必须自回归”的主流认知。

    实验数据显示,LLaDA-MoE模型性能效果在代码、数学、Agent等任务上领先于LLaDA1.0/1.5和Dream-7B等扩散语言模型,接近或超越了自回归模型Qwen2.5-3B-Instruct,仅激活1.4B参数即可实现等效3B稠密模型的性能。

    “LLaDA-MoE模型验证了工业级大规模训练的扩展性和稳定性,意味榴莲视频APP下载观看官网在把dLLM训扩到更大规模的路上又往前走了一步。”蚂蚁集团通用人工智能研究中心主任、西湖大学特聘研究员、西湖心辰创始人蓝振忠在发布现场表示。

    中国人民大学高瓴人工智能学院副教授李崇轩介绍,“两年过去,AI大模型能力突飞猛进,但存在一些问题始终没有得到本质上的解决。究其原因,这是当前大模型普遍采用的自回归生成范式所造成的——模型天然是单向建模的,从前往后依次生成下一个token。这导致它们难以捕tokens之间的双向依赖关系。”

    面对这些问题,一些研究者选择另辟蹊径,将目光投向并行解码的扩散语言模型。然而,现有dLLM均基于稠密架构,难以复刻ARM中MoE的“参数扩展、计算高效”优势。在这样的行业背景下,蚂蚁和人大联合研究团队,首次在MoE架构上推出了原生的扩散语言模型LLaDA-MoE。

    蓝振忠还透露,将于近期向全球完全开源模型权重和自研推理框架,与社区共同推动AGI新一轮突破。

      {loop type="link" row=1 }{$vo.title}