近日,英伟达在AI领域再次取得重大突破,发布了专为数学推理设计的OpenMath-Nemotron系列AI模型,成功刷新了AIME(Artificial Intelligence Mathematics Examination)准确率纪录,标志着AI在多步骤数学逻辑推理能力上的显著提升。
据悉,英伟达此次发布的OpenMath-Nemotron系列包括OpenMath-Nemotron-32B和OpenMath-Nemotron-14B-Kaggle两款先进模型。这两款模型均基于Qwen系列transformer模型,通过在OpenMathReasoning数据集上的深度微调,显著增强了其数学推理能力。
OpenMath-Nemotron-32B作为系列中的旗舰产品,拥有328亿参数,采用BF16张量运算优化硬件效率。该模型在AIME 2024、AIME 2025、HMMT 2024-25等多项基准测试中均取得了领先成绩。特别是在AIME24测试中,以工具集成推理(TIR)模式为例,其pass@1准确率达到78.4%,通过多数投票机制更是提升至93.3%,展现了强大的数学解题能力。
除了旗舰产品外,英伟达还发布了参数更少的OpenMath-Nemotron-14B-Kaggle模型。这款轻量模型拥有148亿参数,针对AIMO-2 Kaggle竞赛进行了优化设计,通过精选OpenMathReasoning数据集子集进行微调,成功夺得竞赛第一名。在AIME24测试中,其链式思维(CoT)模式下pass@1准确率为73.7%,生成式选择(GenSelect)模式下则提升至86.7%。这款模型不仅保持了高质量的数学解题能力,还非常适合资源受限或低延迟需求的场景。
英伟达表示,OpenMath-Nemotron系列模型的发布,是公司在AI数学推理领域的一次重要突破。传统的语言模型虽然擅长生成流畅文本,但在解决复杂数学问题时往往力不从心。这些问题不仅需要理解抽象概念,还要求多步骤的逻辑推导。而OpenMath-Nemotron系列模型通过深度学习和优化算法,成功克服了这些挑战,实现了对数学问题的精准理解和高效解答。
值得一提的是,英伟达还为这两款模型提供了开源管道,集成于NeMo-Skills框架中,支持数据生成、训练和评估的全流程复现。开发者可以通过示例代码快速构建应用,获取逐步解答或简洁答案。此外,模型还针对NVIDIA GPU(如Ampere和Hopper架构)进行了深度优化,利用CUDA库和TensorRT技术确保高效运行。同时,采用Triton Inference Server支持低延迟、高吞吐量的部署,BF16格式则在内存占用与性能间取得了平衡,助力大规模应用落地。
英伟达CEO黄仁勋在发布会上表示:“数学推理一直是AI领域的巨大挑战,但英伟达通过不断创新和优化,成功推出了OpenMath-Nemotron系列模型,刷新了AIME准确率纪录。这不仅是对我们技术实力的肯定,更是对未来AI应用无限可能的展望。我们相信,随着AI技术的不断发展,OpenMath-Nemotron系列模型将在科研、教育、金融等多个领域发挥重要作用,推动人类社会的进步和发展。”
此次英伟达发布OpenMath-Nemotron系列模型,不仅展示了公司在AI数学推理领域的深厚积累和创新实力,也为全球开发者提供了一个强大的工具平台。随着AI技术的不断发展和应用场景的不断拓展,相信英伟达将继续发挥其在AI领域的引领作用,推动产业智能化升级,为人类社会带来更多福祉。
关于文章版权的声明:
https://news.softunis.com/39065.html 文章来自软盟资讯
若非本站原创的文章,特别作如下声明:
本文刊载所有内容仅供提供信息交流和业务探讨而非提供法律建议目的使用,不代表任何监管机构的立场和观点。不承担任何由于内容的合法性及真实性所引起的争议和法律责任。
凡注明为其他媒体来源的信息,均为转载,版权归版权所有人所有。
如有未注明作者及出处的文章和资料等素材,请版权所有者联系我们,我们将及时补上或者删除,共同建设自媒体信息平台,感谢你的支持!
