微博推出开源大模型 VibeThinker-1.5B,小参数实现高性能推理
微博人工智能团队正式发布开源大语言模型 VibeThinker-1.5B。该模型拥有15亿参数,在数学推理与代码生成等关键任务上表现卓越,甚至超越部分参数规模高达数百倍的竞品模型。
VibeThinker-1.5B 基于先进训练框架开发,采用创新的“谱-信号原则”(Spectrum-to-Signal Principle),通过两阶段优化策略——先激发推理多样性,再聚焦最优路径强化——显著提升小模型的逻辑推理与问题解决能力。在多项权威评测中,其性能已可与多个主流商业及开源大模型比肩。
尤为引人注目的是,该模型后期训练成本仅为7800美元,大幅低于行业同类水平,展现出极高的训练效率与资源利用率。目前,VibeThinker-1.5B 已在 Hugging Face、GitHub 和 ModelScope 等平台全面开源,并采用 MIT 许可证,支持学术研究与商业应用。
此次发布标志着微博在高效AI模型研发领域的重大突破,也为中小企业和开发者提供了低成本、高性能的本地化部署选择,进一步推动“小而强”模型生态的发展。