Meta 今日宣布推出全新人工智能技术 “Chain-of-Thought Verification Model”(CoT 验证模型),旨在解决当前大语言模型在复杂推理任务中“看似合理、实则错误”的幻觉问题。
该模型通过引入自验证推理机制,在生成思维链(Chain-of-Thought)过程中自动插入多步一致性校验点,对中间推理步骤进行逻辑回溯与事实核验。实验显示,在数学推理、科学问答和法律分析等高难度基准测试中,CoT 验证模型将答案准确率平均提升23%,同时显著降低逻辑矛盾与事实性错误。
Meta 表示,该技术不依赖外部检索工具,完全基于模型内部机制实现“思考-验证-修正”闭环,兼具高效性与可扩展性。目前,CoT 验证模块已集成至 Llama 4 系列模型的推理引擎中,并作为开源组件发布于 GitHub,支持研究社区自由调用与微调。
Meta AI 负责人指出:“可靠的推理是通用人工智能的关键一步。我们希望通过 CoT 验证模型,推动 AI 从‘能说会道’迈向‘言之有据’。”
—— 完 ——