品玩

科技创新者的每日必读

打开APP
关闭

通义千问 Qwen 2.5-Max 超大规模 MoE 模型发布:号称优于 Deepseek V3 等竞品,暂未开源

1月29日

品玩1月29日讯,阿里云公布了其全新的通义千问 Qwen 2.5-Max 超大规模 MoE 模型。

Qwen2.5-Max模型是阿里云通义团队对MoE模型的最新探索成果,预训练数据超过20万亿tokens。新模型展现出极强劲的综合性能,在多项公开主流模型评测基准上录得高分,全面超越了目前全球领先的开源MoE模型以及最大的开源稠密模型。

目前,开发者可在Qwen Chathttps://chat.qwenlm.ai/平台免费体验模型,企业和机构也可通过阿里云百炼平台直接调用新模型API服务。

取消 发布

下载品玩App,比99.9%的人更先知道关于「阿里云」的新故事

下载品玩App

比99.9%的人更先知道关于「阿里云」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测