DeepSeek正成为AI领域崛起的新星,打破了国内大模型的原有格局。本周,DeepSeek发布了DeepSeek-R1,并同步开源了模型权重。DeepSeek-R1遵循MIT License,允许用户通过蒸馏技术借助R1训练其他模型。
DeepSeek-R1上线了API,对用户开放思维链输出,设置model='deepseek-reasoner'即可调用。该模型在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能与OpenAI o1正式版相当。同时,DeepSeek开源了两个660B模型,并通过DeepSeek-R1的输出蒸馏出六个小模型,其中32B和70B模型在多项能力上实现了对标OpenAI o1-mini的效果。
DeepSeek-R1 API服务定价为每百万输入tokens 1元(缓存命中)/4元(缓存未命中),每百万输出tokens 16元。DeepSeek在美国科技界引起震动,不仅因为其性能与OpenAI的o1相当且完全开源,还以极低成本实现了这一突破。知名投资人马克·安德森表示,DeepSeek R1是他见过最令人惊叹和印象深刻的突破之一,作为开源项目,这是给世界的一份重要礼物。
Scale AI创始人亚历山大·王认为,过去十年美国可能一直在人工智能竞赛中领先于中国,但DeepSeek的发布可能会改变这一局面。DeepSeek-R1与GPT-4o和Claude 3.5 Sonnet相当,训练时计算量减少10倍。这表明在美国人休息时,中国人在工作,并以更便宜、更快、更强的产品迎头赶上。