事件:
1月20日,DeepSeek发布一系列DeepSeek-R1模型,包括DeepSeek-R1、DeepSeek-R1-Zero和DeepSeek-R1-Distill系列。作为DeepSeek目前最先进的模型,R1系列模型推理能力优异,AME2024测试表现略高于OpenAII-o1-1217,MATH-500成绩表现与OpenAI-o1-1217相当,但API服务定价相比OpenAI同类产品具有明显优势,显示出明显的成本优势和商业化落地潜力。
点评:
DeepSeek性能比肩OpenAI-o1正式版,但训练、推理成本大幅下降。根据第三方基准测试,DeepSeek-R1实际性能出色,表现优于OpenAI、Anthropic和Meta等海外领先AI企业,在数学、代码编写和自然语言推理等任务中表现优异。其中,在AIME2024数学基准测试中,DeepSeekR1得分为79.8%,超越OpenAI的o1推理模型;在标准化编码测试中,DeepSeek在Codeforces上获得2029Elo的评级,超越96.3%人类竞争对手。成本方面,DeepSeek训练成本仅为OpenAI同类模型的十分之一,仅花费557.6万美元与2048块英伟达H800GPU便完成了性能对标GPT-4o的模型训练;推理方面,DeepSeek的推理成本低至每百万Token0.14美元,而OpenAI推理成本为每百万Token7.5美元。
DeepSeek通过大幅降本引领AI成本革命,为突破海外高端GPU“卡脖子”提供思路。根据ScalingLaw,在AI领域,模型性能随着模型规模(如参数数量)、训练数据量及计算资源量的增加而提升,且这种提升遵循可预测的幂律关系,即:模型性能会随着模型规模的指数级增加而实现线性提升。此前发布的OpenAI的GPT系列、谷歌的Gemini系列以及Anthropic的Claude系列,最新版本规模均已突破千亿参数大关。相比美国的领先大模型,DeepSeek-R系列在技术路线上实现突破性创新,成为首次摒弃监督微调环节并完全依赖强化学习训练的大语言模型,对于小模型则通过知识蒸馏(KnowledgeDisillation)技术成功获取大模型的推理能力,实现小模型在推理任务上的显著提升。得益于技术
路线上的创新,DeepSeek-R1API服务定价为每百万输入tokens1元(缓存命中)/4元(缓存未命中),每百万输入tokens16元,定价远低于OpenAI等可比海外大模型API服务。我们认为,在硅谷传统“堆算力、拼资本”的AI发展路径下,DeepSeek通过技术创新实现降本增效,不仅引领人工智能成本革命,也为应对美国高端GPU出口管制提供了思路。
DeepSeek实现大模型成本大幅优化,有望加快AI应用场景落地,长期有望增加算力总消耗量。我们认为,相比可比大模型,DeepSeek通过算法优化、模型压缩等技术大幅降低单位算力需求,该模式可能被其他企业借鉴,企业通过软件/架构优化而非硬件堆叠来满足需求,可能导致短期算力芯片采购节奏放缓;但从长期来看,DeepSeek引领大模型成本缩减,算力效率提升有望降低行业技术门槛,加快AI应用场景落地,而更广泛的用户与应用场景可能引发对更大参数与更复杂的大模型的迭代需求,如自动驾驶等场景对算力需求呈现指数级增长。因此,从长远来看,大模型降本增效可能刺激更大规模的应用部署,算力总消耗量有望增加;国产替代方面,目前美国限制高端GPU出口,国产算力自主可控需求迫切,若DeepSeek的降本增效技术与国产算力芯片结合,可能加速国产算力的国产替代进程,
本报告的风险等级为中风险。
本报告的信息均来自已公开信息,关于信息的准确性与完整性,建议投资者谨慎判断,据此入市,风险自担。
实现“弯道超车”。
投资建议:DeepSeek性能比肩海外领先大模型,且推理、训练成本实现大幅降低,展现出明显的商业化落地潜力,有望加快AI应用场景落地,长期有望增加算力总消耗量,并加快算力芯片的国产替代。建议关注AI算力、存储、终端SoC等环节。
风险提示:国产替代进程不及预期、AI应用场景落地不及预期、行业资本开支不及预期等。