小红书正式推出首个开源文本大模型—dots.llm1
2025年6月10日,小红书正式宣布开源其首个自研文本大模型 dots.llm1。该模型由小红书hi lab(Humane Intelligence Lab,人文智能实验室)团队研发,是一款基于 Mixture of Experts(MoE) 架构的中等规模文本大模型,总参数量达 1420亿(142B) ,在推理过程中仅激活 140亿(14B) 参数,展现出高效的计算能力和卓越的性能 。
dots.llm1 在训练阶段使用了 11.2万亿(11.2T) 高质量非合成数据,通过精心设计的数据处理流程,实现了与阿里 Qwen2.5-72B 相当的性能表现。在中文任务中,dots.llm1 表现出色,尤其在语义理解、数学能力等方面优于众多模型,展现出强大的中文处理能力 。
此次开源不仅为研究者提供了宝贵的模型资源,也为开发者和企业降低了部署私有化大语言模型的技术与成本门槛。小红书希望通过这一举措,推动自然语言处理(NLP)领域的技术进步与创新,促进学术界和工业界的深度合作 。
dots.llm1 的开源标志着小红书在人工智能领域迈出了重要一步,也为全球大模型技术的发展注入了新的活力。未来,小红书将继续致力于技术创新,推动更多大模型成果的发布与应用,为社会智能化进程贡献力量 。