在AI领域掀起了一股"小模型"热潮。继麻省理工学院Liquid AI推出可穿戴设备适配的微型视觉模型,以及谷歌发布手机端运行的小型模型后,英伟达近日也加入战局,推出了其最新研发的Nemotron Nano v2小型语言模型(SLM)。这款仅9B参数的"小"模型在性能表现上令人惊喜。
根据测试数据,Nemotron Nano v2在复杂推理任务中的准确率与Qwen3-8B相当甚至更高,而运行速度更是提升了惊人的6倍。这款由英伟达自主研发的模型采用了独特的设计理念,旨在成为通用型AI解决方案。

该模型最引人注目的特点是其"思考预算控制"机制。用户可以根据需求设定模型推理过程中允许使用的token数量。这种设计既保证了推理质量,又提高了效率。技术团队负责人Oleksii Kuchaiev透露,他们通过特殊训练方法解决了模型"偷跑"思考的问题。

英伟达此次不仅开源了模型本身,还罕见地公开了训练数据集。这套包含20万亿token的预训练语料库分为多个专业领域,为AI开发者提供了宝贵的研究资源。这种开放态度在业内实属罕见。

模型训练过程分为三个阶段:
测试结果显示,该模型在多项基准测试中表现优异,特别是在数学推理和长文本处理方面。

英伟达近期在开源领域的积极布局,与部分科技巨头转向闭源形成鲜明对比。其Nemotron生态系统的持续完善,特别是针对中国市场对标Qwen系列的战略,或将重塑AI开源生态格局。目前,Nemotron Nano v2已开放在线试用,感兴趣的开发者可以亲身体验其性能表现。

本文首发于量子位(ID:QbitAI),作者:不圆
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述