deepseek本质及产业机会分析
2025-02-06 11:06:11 16 举报
AI智能生成
deepseek及相关产业机会分析
作者其他创作
大纲/内容
参考资料
https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
https://api-docs.deepseek.com/
https://github.com/deepseek-ai/awesome-deepseek-integration/tree/main
https://blog.csdn.net/qq_42257666/article/details/144418291?utm_source=chatgpt.com
deepseek引起较大轰动的背景说明
AGI(通用人工智能)技术是美国列入国防优先分配系统(DPAS)的研发方向,与核武器同一级别,deepseek作为国产开元模型,在AGI方向上突破了美国算力、模型等多个环节的综合效果,评分全面优于GPT 4o。主要事实包括:
OpenAI 在相关方面的投资还有5-7万亿美元缺口,而deepseek使用557美元完成训练
不仅便宜,效果更好:在相同的行业测试试卷Benchmark (Metric)上,DeepSeek V3 全面优于 GPT-4o
英伟达股价1个月之内暴跌26%,分析:国外通用大模型主流技术过于依赖堆算力(OpenAI 有约35W颗A100 GPU,马斯克组建10W卡集群),而deepseek 改进base model 改进,降低了模型训练成本、推理成本,pretrain 需求增速放缓,post-train 和 inference scaling 还没有足够快地 scale up,因此但英伟达和台积电都在跌(长期叙事依然利好),美国AI圈的二级算力公司大环境也一样
OpenAI CEO 奥特曼为什么声称“闭源战略失败”? deepseek的开源成效(截止0205)
云和智算厂商
国内:阿里、腾讯、华为、火山等推出deepseek模型集成服务,预计几天后覆盖率会趋近100%
国外:google, 微软、英伟达、AWS、Perplexity等
应用(app)厂商
官方发布:https://github.com/deepseek-ai/awesome-deepseek-integration/tree/main
同时开放丰富的接口文档,可接入飞书、微信等
同时开放丰富的接口文档,可接入飞书、微信等
deepseek优势分析
在数学推理、编程能力和语言理解等方面,DeepSeek 的表现与国际顶尖模型(如 GPT-4)相当。
API 调用费用仅为竞争对手的十分之一,每百万元输入成本仅 0.1-1 元人民币。
技术优势
更高效的技术路线:基于混合专家(MoE)架构,总参数量达到 6710 亿,每个 token 激活 37 亿参数。
核心竞争力:GRPO,工程化门道比较多,很多大厂尝试但没有突破,暂不展开讨论
架构创新:采用多头潜在注意力(MLA)机制,通过低秩联合压缩,减少键值(KV)缓存需求,提升推理效率。
训练效率与成本的优化
使用FP8混合精度训练,通过将模型参数和梯度表示为8位浮点数来减少内存占用和计算量。
训练数据优化
使用 14.8 万亿个高质量、多样化的 token 进行训练,覆盖广泛的领域和任务。
计算效率优化
训练成本仅为 557 万美元,远低于行业平均水平。
推理速度快,首次响应时间约为 1.1 秒,每秒生成 87.5 个 token。
机会1:智算行业PaaS能力加强
灵活部署Deepseek模型(r1/v3):PaaS能力全面加强,近几个月生态伙伴研发的工具链会爆发式增加
国内外云厂商紧急提供deepseek模型服务(阿里、华为、腾讯、火山、京东等)
deepseek团队重点探索模型,团队放弃了很多方向,如安全、多模态等,方向极度聚焦,为生态伙伴提供合作空间
智算带通算方案更新:deepseek+工具链+X
机会2:云端推理需求增加,推理算力市场迎来新机会
Deepseek是从base model 改进得到的(更加高效),还是遵循Scaling Law(算力资源需要依然会不断提高),deepseek生态用户数增加、场景增加、使用频率增加,促使推理卡需求增加
高性能:A100、V100
性价比:RTX 4090/3090、A30
低功耗:T4
性价比:RTX 4090/3090、A30
低功耗:T4
机会3:国产化替代方案需求增加
华为、海光、摩尔线程、沐曦、天数智芯等已支持
机会4:部分行业有井喷潜力
潜在行业:互联网、互联网化的 B2C/B2B2C公司
Deepseek在应用侧的突出贡献是降低C端使用成本

收藏

收藏
0 条评论
下一页