易算盘市场洞见 013|深度探讨:从 Deepseek 的利润率看 AI Infra 的新战场
当一家企业需要发展的时候,首先需要评估的就是外部环境即自己站在哪里。这样就能了解市场趋势,识别竞争对手,评估客户需求,发现机会和威胁。 当咨询顾问想要当企业的外脑,需要快速理解公司的运营和财务信息,分析一家公司时需要考虑现金流、区域特点、风险等因素。 那如何培养这样的 市场感(Market Sense)?对我来说就是读新闻及研报,同时注意三个方面: 新闻及研究报告中的事实和数据是什么? 如何从这些事实和数据过渡到你的论点? 如何讲这些事实数据和论点有效的表达? 将不定期的把阅读过的新闻及研报记录节选上来,希望通过这种方式,不仅能够巩固自己的理解,还能与大家分享我的思考,同时,我也期待与大家进行更多的互动和交流,共同探讨和分享市场的最新动态和机会。 希望这个系列能成为大家了解资本市场、提高商业能力的一扇窗户,也希望通过持续的学习和分享,能够与大家一起成长,共同迈向更高的商业智慧。
013|深度探讨:从 Deepseek 的利润率看 AI Infra 的新战场 在大模型浪潮汹涌的当下,Deepseek 一天“8.7 万美元成本对应 56 万美元收入、理论利润率高达 545%”的消息无疑震撼了整个行业。作为一名战略协同领域及商业模式的观察者,我想结合 Deepseek 的最新数据,讨论大模型利润率背后的真实图景,以及 AI Infra 未来可能的竞争与机遇。 一、Deepseek 的数据:看似惊人的利润率 1.高利润率的不同“口径” 首家披露推理成本的大模型 误区:只看“推理端”不代表公司财务层面 2. 对比 Anthropic:云分成与利润率的敏感度 TD Cowen 模型拆分 夜间降价与负载优化 二、AI Infra 的逻辑:从成本结构到资源调度 1. 大模型与传统云计算的共性 我在业界看到一种倾向:AI 云计算在底层成本、资源弹性、负载率优化等方面,与过去十年的云计算模式并无本质不同。提升 GPU 集群利用率、合理分配带宽和时段负载,是所有云计算厂商一直以来的核心课题。 2. 公有云 vs. 自建部署 自主部署门槛高 云厂商的内生业务 3. 产业生态:Deepseek 的“只做基础模型”思路 Deepseek 强调自身只负责基础模型与前沿创新,进一步的商业应用由上下游伙伴来构建。这种“基础模型+行业应用”分层合作的方式,能让大模型企业聚焦于技术攻关,也有助于产业链迅速补位。云计算厂商、ISV(独立软件开发商)以及企业用户之间的分工界限愈发清晰。 三、未来应用:多模态与 Agent 阶段的爆发 1. To C:从文本 Chatbot 到多模态 现有的 ChatGPT、Deepseek 等在消费端主要提供文本对话功能,尚未大规模落地语音、视频、图像等多模态场景。一旦多模态或 Agent 化应用普及,算力需求可能远超现阶段规模。 2. To B:从 Co-Pilot 走向“AI 员工” 企业端则多停留在 Co-Pilot 式辅助阶段,还未进入能进行自主决策的真正 Agent 形态。随着企业流程深度自动化,AI 对算力与专业 infra 的需求大概率继续攀升,“Jevons 悖论”在此体现:效率提升后,需求并非缩减,而是迎来爆发式增长。 四、对资本市场与从业者的思考 1. 更精细化的二级市场分析 深层次对比大模型利润率,需要先弄清楚: 推理调用层面的毛利率(排除训练、折旧和大量人员开支) 财务口径下的盈亏(真正影响公司估值和投融资时的会计指标) 投资机构、卖方分析师也需在“算力 × 利用率 × 云分成”这些角度,建立起更细分的估值与盈利预测模型。 2. AI Infra 的内卷:高要求与高回报并存 与 Deepseek 对标 算力与“有效算力”的思考 3. 构筑完善生态,聚焦核心竞争力 规模集群 & 模型创新 云计算迎来新增长 Deepseek 的“高利润率”只是一个起点,它背后反映出大模型在“推理端”具备良好的盈利潜力。尽管训练成本、数据许可、市场运营等仍能拉低企业整体财报的盈余,但随着云厂商、AI Infra 提供商不断提升规模效应、优化资源调度,大模型的商业化前景广阔且竞争激烈。 对于正在深耕或即将进入该领域的从业者,无论是研究大模型本身,还是着力在云计算基础设施上,都需把握两点: 第一,算力与算法的迭代速度之快,要求持续大额投入与及时升级; 第二,想要靠“AI + Infra”实现真正高利润,需要的不仅是硬件规模,更是负载率管理、跨时区错峰以及与上下游生态的深度链接。 作者介绍 Iris W INTJ 丨贝叶斯人 CPA Aust.丨CIMA丨CFA ESG Investing 聚焦科技,生物医学,哲学,历史,思维模型. 致力于公司治理和战略领域. 专业技能涵盖了现代企业管理、全球战略与领导力、金融风险管理.
Deepseek 比其他大模型公司(如 OpenAI 或 Anthropic)更为透明地公布了自己的推理成本结构。若以其 R1 模型定价来计算,利润率可达 85%,v3 定价(更低的调用价格)则下降到约 70%。
部分媒体或评论在报道高利润率时,没有区分大模型在推理端的毛利率,与其在整个会计体系下包含训练、数据费、推广和折旧等综合成本时的财务利润。前者往往远高于后者。
TD Cowen 曾尝试拆分 Anthropic 2024 年 API 收入与 AWS 分成的关系,得到 61% 的利润率;分成比例、云厂商内部定价等参数的波动,往往会在 60%~85% 区间“摆动”。
Deepseek 最近采取夜间降价,是为了充分利用低峰时段的 GPU 算力。通过跨时区调用或错峰调度,推理资源得到更高负载率,利润自然上扬——这本质上就是“云计算模式”下常见的利用率最优化策略。
目前大厂可通过超大规模 GPU 集群和先进算法(如 MoE)实现对算力的极致榨取;而中小企业或个人若想自行部署大模型,往往会面临部署难度高、单位成本昂贵、资源利用率低的困境。
对于阿里、腾讯等本身就拥有大量内部产品(电商、办公、社交、游戏等)的云厂商而言,一旦能让这些业务“吃满”自家 AI 基础设施,单次推理或数据处理的边际成本就会进一步下降——也就是说,当应用规模足够庞大时,利润率有可能比传统公有云时代更高。
Deepseek 公布的“高利润”标杆,使得投资人和管理层可能用此来衡量其他 AI Infra 厂商的效率与成本控制能力。
行业需关注 AI Infra 不仅是“原始硬件规模”,也包括调度算法、负载率、弹性扩容、跨时区调用等等运维水平的提升。
对基础模型和推理服务提供商来说,能否在大规模 GPU 集群和模型算法层面形成真正护城河,关系到长期竞争地位。
当越来越多企业、个人都将 AI 推理迁移到公有云或大厂集群上,云计算仍有广阔的发展空间和利润想象力。