谨慎看待“中国AI正在超越美国”

前期探索工作的投入成本“浪费”是必须的,站在巨人肩膀上的后发优势值得鼓励,但无需太过骄傲,更不要让噱头盖过了真实。

责任编辑:黄金萍

5天时间,三家中国AI企业接连发布了三款对标OpenAI o1系列的大模型。

1月20日,开年出圈的“东方神秘力量”DeepSeek(深度求索)发布推理模型DeepSeek-R1,在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型的推理能力,使得它在数学、代码、自然语言推理等任务性能上比肩OpenAI o1正式版,后者为OpenAI在2024年12月上线的推理模型。

与o1相比,R1的最大优势之一在于高性价比——API服务定价为每百万输入tokens 1元(缓存命中)/ 4元(缓存未命中)、每百万输出tokens 16元,远低于o1每百万输入tokens 15美元(约合人民币110元)、每百万输出tokens 60美元(约合人民币437元)。也就是说,R1的价格约为o1的三十分之一。

更令外界兴奋的是,DeepSeek同步了开源模型权重,允许用户通过R1输出、蒸馏等方式训练其他模型;而o1并未开源,基本处于“黑匣子”状态。

1月21日,另一家中国大模型明星企业月之暗面推出了Kimi k1.5多模态思考模型。在long-CoT长思考模式下,k1.5的数学、代码、多模态推理能力达到OpenAI o1正式版水平;在short-CoT短思考模式下,k1.5的数学、代码、视觉多模态和通用能力,超越了OpenAI GPT-4o和Anthropic Claude 3.5 Sonnet。

Kimi k1.5尚未开源,但首次分享了详细的技术报告,其中关键就是利用强化学习(RL)增强其推理能力:长上下文扩展和改进的策略优化建立了简单、有效的RL框架,无需依赖蒙特卡洛树搜索(MCTS)、价值函数和过程奖励模型(PRM)等复杂技术。

英伟达高级研究科学家吉姆·范(Jim Fan)指出,DeepSeek和Kimi都简化了RL框架,例如绕过MCTS,只需通过线性化思维轨迹,然后进行传统自回归预测;尽可能依赖事实和最终结果,而不是密集奖励建模。

1月24日,中国AI企业百川智能的全场景深度思考模型Baichuan-M1-preview正式上线,测试结果显示,它在数学、代码等多个权威评测中的表现超越了2024年9月发布的OpenAI o1-preview(预览版)

除了推理能力,M1-preview还解锁了“医疗循证模式”,能精准回答医疗临床、科研问题,帮助用户做出医疗决

登录后获取更多权限

立即登录

校对:赵立宇

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

参与评论


精选评论 (4)


这是盛京
回复

这是盛京

01-29

ai的未来我们还看不清楚

虚构1班—希音东听
回复

虚构1班—希音东听

01-28

用时间来证明 谁的科技实力强

HUJH777
回复

HUJH777

01-28

戒骄戒躁,谦虚使人进步

HUJH777
回复

HUJH777

01-28

戒骄戒躁,谦虚使人进步,骄傲使人落后,更不可沽名学霸王!