01DeepSeek过几周还有大招!
产品:YOGA Air 15 Aura AI元启版(Ultra7 258V/ 联想 笔记本电脑近期,科技界最为热议的词汇当属“DeepSeek”。据悉,DeepSeek-R1在数学、代码自然语言推理等领域的表现已经能够与OpenAI的GPT-1正式版相媲美,其火爆程度席卷全球。这一突破性进展不仅彰显了DeepSeek团队的技术实力,也引发了业界对人工智能未来发展的广泛讨论。
近日,DeepSeek的研究员在线透露了一个令人振奋的消息:R1的训练过程仅仅耗时两到三周。这一高效的训练速度无疑为DeepSeek的进一步研发奠定了坚实的基础。据悉,研究员们在春节期间也未停歇,继续全力推进研究,以期在未来推出更多重量级的模型。
几天前,Daya Guo发布了一条推文,分享了他春节期间最为兴奋的事情——亲眼目睹了R1-Zero模型性能曲线的“持续增长”,并深切感受到了强化学习(RL)的强大力量。Daya Guo的言辞中透露出对DeepSeek未来发展的坚定信心和期待。
在回复网友关于DeepSeek R1的问题及公司后续计划时,Daya Guo透露,DeepSeek的R1只是一个开始,内部研究正在快速推进。他强调,研究员们在春节期间一直在加班加点地推进研究,以期尽快向社区发布更加优秀的模型。当被问及“如果不是秘密的话,这次RL训练跑了多久?”时,Daya Guo回应称,660B参数的R1-Zero和R1是在V3版本发布后才开始训练的,整个过程大约花费了2-3周的时间。
此外,Daya Guo还透露团队正在尝试将R1应用于形式化证明环境,并希望尽快向社区发布更加优秀的模型。从Daya Guo的言辞中不难看出,DeepSeek团队在这方面已经取得了显著的进展,未来或将有更多具有颠覆性的模型问世。