​小红书发布首个开源大模型dots.llm1:11.2 万亿非合成数据助力中文性能提升

AI 概述
小红书近日宣布开源其首个大规模模型 ——dots.llm1,该模型具有 1420 亿个参数,是一种专家混合模型(MoE)。其设计的一个显著特点是,在推理过程中仅激活 140 亿参数,这种结构不仅保持了高性能,还大幅降低了训练和推理的成本。 dots.llm1 使用了 11.2 万亿个非合成的高质量训练数据,这在当前开源大模型中显得非常罕见...

小红书近日宣布开源其首个大规模模型 ——dots.llm1,该模型具有 1420 亿个参数,是一种专家混合模型(MoE)。其设计的一个显著特点是,在推理过程中仅激活 140 亿参数,这种结构不仅保持了高性能,还大幅降低了训练和推理的成本。

dots.llm1 使用了 11.2 万亿个非合成的高质量训练数据,这在当前开源大模型中显得非常罕见,表明小红书在语言处理方面的强大资源。该模型在中文测试中的表现优异,平均得分 91.3,超越了多款竞争对手,如 DeepSeek 的 V2、V3 和阿里巴巴的 Qwen2.5 系列。

​小红书发布首个开源大模型 dots.llm1:11.2 万亿非合成数据助力中文性能提升

在技术架构方面,dots.llm1 采用了单向解码器 Transformer 结构,并将传统前馈网络替换为 MoE。与传统模型不同,MoE 将多个专家网络分开,每个专家网络专注于输入数据的不同特征,从而在推理时只激活一小部分网络进行计算,大幅度节省了算力需求。

具体来说,dots.llm1 包含 128 个路由专家和 2 个共享专家。每个专家都是一个具有两层前馈结构的网络,使用 SwiGLU 激活函数以捕捉数据中的复杂关系。在处理输入标记时,模型会动态选择出 6 个最相关的专家和 2 个共享专家进行运算。

此外,dots.llm1 在训练过程中还引入了改进的 RMSNorm 归一化操作,以稳定模型性能和输出。在 MoE 模块中,负载平衡策略的引入确保了所有专家网络的使用均衡,从而避免了过度依赖某些专家的问题。

为了提升模型的训练效率,dots.llm1 还使用了 AdamW 优化器,这一优化算法能有效防止模型过拟合并控制梯度爆炸。

数据处理是训练大模型的关键,dots.llm1 经过了严格的三级数据处理流水线,确保了训练数据的高质量。经过一系列的过滤和处理,最终形成了 11.2 万亿个高质量 token 的训练数据。此外,小红书还开源了每 1 万亿 token 的中间训练检查点,促进学术研究的进一步发展。

开源地址:点击这里

以上关于​小红书发布首个开源大模型dots.llm1:11.2 万亿非合成数据助力中文性能提升的文章就介绍到这了,更多相关内容请搜索码云笔记以前的文章或继续浏览下面的相关文章,希望大家以后多多支持码云笔记。

「点点赞赏,手留余香」

0

给作者打赏,鼓励TA抓紧创作!

微信微信 支付宝支付宝

还没有人赞赏,快来当第一个赞赏的人吧!

声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请将相关资料发送至 admin@mybj123.com 进行投诉反馈,一经查实,立即处理!
重要:如软件存在付费、会员、充值等,均属软件开发者或所属公司行为,与本站无关,网友需自行判断
码云笔记 » ​小红书发布首个开源大模型dots.llm1:11.2 万亿非合成数据助力中文性能提升

发表回复