2023年9月18日,深度求索(DeepSeek)团队旗下的DeepSeek-R1推理模型研究论文荣幸地登上了国际顶级科学期刊《自然(Nature)》的封面。这一举动不仅标志着DeepSeek-R1成为全球首个通过同行评议的大语言模型,更是中国在人工智能基础研究领域所取得的重要突破。
DeepSeek-R1的研究论文与其在今年1月发布的未经同行评审的初版相比,经历了显著的改进和调整。在同行评审过程中,DeepSeek团队积极响应审稿人的反馈意见,对模型的描述进行了重塑,降低了对其人性化特征的强调,同时增加了模型训练流程的详细技术说明。其中包括模型所使用的训练数据类型、安全性考量,以及针对之前关于知识蒸馏的质疑所做的澄清。
该团队坚决否认了有关其使用OpenAI模型生成输出作为训练数据的传闻。根据DeepSeek提供的信息,DeepSeek-V3 Base(DeepSeek-R1的基础模型)所使用的数据纯粹来源于互联网,而所有可能包含GPT-4输出的结果,均未经过故意选择,也没有进行专门的知识蒸馏。该团队为确保评估数据的纯净性,采取了全方位的去污染措施,以降低潜在的数据干扰。
自开源以来,DeepSeek-R1的下载量已突破1090万次,迅速成为全球最受欢迎的开源推理模型,这一成绩展示了其在广泛应用场景中的潜力和价值。DeepSeek团队首次公开了通过仅依赖强化学习方法所取得的重要研究成果,该成果展示了如何激发大型语言模型的推理能力。这一创新的核心在于“纯强化学习”策略,通过奖励模型的反馈来学习推理策略,而非传统的复制人类的思维路径。
在补充材料中,DeepSeek还披露了其R1模型的训练成本仅为29.4万美元,尽管加上大约600万美元的基础模型成本,整体开发开销依然低于业内主流竞争对手如OpenAI和谷歌的训练费用。该模型的卓越性能和极具竞争力的开发成本在今年1月发布时引发了全球科技股的震荡,引起了市场的广泛关注。
《自然》期刊在选中DeepSeek-R1论文作为封面论文的同时,也在评论文章中称赞其为“里程碑式论文”,并在文中称誉其“创造历史”的重要意义。这一评价反映了深度求索在人工智能领域的进步及其在推动国际学术交流中的重要性。
在快速发展的AI行业中,不可避免地伴随着诸多未经证实的炒作和宣传。《自然》杂志指出,由于AI技术的普及,大模型厂商的非验证性宣传可能为社会带来潜在的风险,因此,独立研究人员所开展的同行评审成为抑制行业过度炒作的有效手段。而DeepSeek的举措,为行业树立了一个可供借鉴的良好榜样。
8月21日,DeepSeek又发布了其最新版本的大语言模型——DeepSeek-V3.1。根据DeepSeek的介绍,新版本在混合推理架构、高效思考能力以及智能体表现等多个方面进行了重要的升级。DeepSeek-V3.1的创新之处在于该模型同时支持思考模式与非思考模式,为不同应用场景提供了更为灵活的解决方案。
作为一家于2023年在杭州成立的人工智能公司,DeepSeek的创始团队由领域的专家组成,领头人梁文锋以及团队成员均来自于顶尖高校和国际机构。经过不懈努力,DeepSeek在短短时间内便在大语言模型的研究和开发领域取得了显著成绩。这不仅是对团队前期努力的肯定,也是中国在AI技术领域持续创新和发展的重要体现。
DeepSeek-R1的成功不仅意味着该技术的成熟,同时也为人工智能研究社群提供了新的思路和灵感。在未来的技术发展过程中,DeepSeek必将在大语言模型的理论与应用研究中扮演更加重要的角色。