英伟达开源自动驾驶模型Alpamayo 1,加速L4级自动驾驶落地
2026年1月5日,在CES 2026展会上,英伟达正式发布并开源其首款面向自动驾驶的视觉-语言-动作(VLA)大模型——Alpamayo 1。该模型具备因果链推理与轨迹规划能力,是全球首个支持“思考+解释+执行”的开源自动驾驶AI系统。
Alpamayo 1采用100亿参数架构,能将传感器数据转化为自然语言描述,通过类人逻辑推断道路参与者意图、预测风险,并生成安全驾驶指令。测试显示,其在复杂长尾场景中规划准确率提升12%,事故率降低35%,响应延迟低至99毫秒。
同步开源的还包括1700小时真实驾驶数据集、仿真工具AlpaSim及开发者套件Cosmos工具链,全面支持从训练到部署的全栈开发。英伟达表示,此举旨在推动行业建立统一、可解释、安全的自动驾驶技术标准。
目前,2025款梅赛德斯-奔驰CLA已搭载英伟达L2级全栈方案,基于Thor芯片平台;而Alpamayo 1则聚焦L4级高阶自动驾驶,为车企和初创公司提供开放、高效的开发路径。