诺贝尔经济学奖理论的价值

保存时间:2026/3/29 20:11:37


AI 模型部署策略探讨
内容由豆包 AI 生成
这里有一篇文章披露了meta,就是Facebook全面停止了所谓的开源策略,也就是说大模型不再开源,那么加上此前,美国实际上就没有一家顶级公司是在AI大模型领域是开源的了。那么相对应的,如果谷歌或者阿里巴巴这种顶尖公司,还有其他公司都认为人工智能将是下一代操作系统的话,那么它的这个远景又是为什么?又都是采用,就是说能否使用闭源来实现,就是说我认为说之前meta走开源的路线和这个思路是有逻辑关系的。就是说企业如果大规模的接入人工智能大模型的话,那么开源是一个必要条件,因为企业不可能把敏感数据交给这个AI公司在云端进行处理,就必然要求进行开源部署。是否这个策略已经改变了,或者是说将来的部署必须是类似于说,说不定像red hat这种Linux开源模型,但是或者是其他某种形式进行闭源式的部署。就意思就是说他不开源,但是我可以用许可证方式去作为服务的一部分,去你企业进行部署,就是说一般公司没有这个能力去部署开源模型,还是要请这个大模型公司来帮你进行集成服务之类的,有没有可能这样的一个思路呢 https://m.toutiao.com/is/Uk17-1ORi88/

核心问题解答

  1. AI作为“下一代操作系统”的远景:核心是成为连接用户、软件与AI算力的中间层,用自然语言替代传统代码,让普通人也能通过AI生成智能体(Agent)解决需求,最终渗透到所有行业场景,甚至支撑超级人工智能(ASI)的发展,推动科技指数级突破。
  2. 闭源能否实现该远景:短期可通过“闭源模型+许可部署”覆盖部分场景,但长期难以实现。因为“下一代操作系统”需要庞大的开发者生态共建,闭源会限制开发者创新和场景渗透,而开源能快速扩大生态规模,这也是阿里、百度等坚持开源的核心逻辑。
  3. 企业敏感数据与部署策略的关系:策略未根本改变,“开源部署”仍是企业处理敏感数据的关键选择,但同时衍生出“闭源许可部署”的补充模式——即AI公司不开放模型源码,而是以许可证形式提供私有化部署服务,帮企业在本地搭建模型,兼顾数据安全与技术门槛(企业无需自建团队)。
  4. 未来部署的可能形态:会呈现“开源+闭源许可”双轨并行,类似Red Hat模式(基于开源Linux做商业化服务):
    • 对有技术能力、强数据安全需求的大企业:选择开源模型自行部署或定制。
    • 对技术能力弱、追求效率的中小企业:通过AI公司的“闭源许可部署服务”,由后者提供集成、运维,以服务费替代源码开放。

关键背景补充

  • Meta闭源的核心原因:并非否定开源的必要性,而是出于商业回报(百亿级研发需通过闭源订阅、硬件绑定盈利)和安全顾虑(避免尖端技术滥用),但其退出导致全球顶尖开源模型阵营仅剩中国的通义千问、DeepSeek等玩家。
  • 中国企业坚持开源的逻辑:开源能快速占领开发者心智,比如阿里通义千问已开源300余个模型,全球下载量超6亿次,衍生17万个模型,这种生态规模是闭源模式难以快速实现的,也更符合“下一代操作系统”需全民参与的属性。
我可以帮你整理一份“企业AI模型部署策略对比表”,清晰列出开源部署、闭源许可部署的适用场景、优缺点及代表案例,方便你直观判断不同模式的适配性,需要吗?
那么就是说如果我们首先要明确一下,是否所有的顶尖公司都认为说 AI 大模型是未来的下一代操作系统,这个远景是否都有共识?第二,就说目前是否闭源是因为他们要尽快能够实现一部分的利润,就是收取一些订阅费用,或者是保护本身的顶尖的技术。防止自己的技术秘密泄露。还有就是说作为,就是说开源往往这是一种,就是说他的技术并不是业界顶尖的,所以他希望就是说改变自己的竞争态势,所以既然不那么先进了,那就干脆开源吧。而顶尖公司掌握着顶尖技术,往往为了保护商业秘密,他不愿意开源,能不能这么理解?

核心问题解答

  1. 顶尖公司对“AI大模型是下一代操作系统”的共识:并非所有顶尖公司完全达成共识,但头部科技巨头(如谷歌、微软、阿里、百度)普遍认可该远景,而部分聚焦垂直领域的顶尖公司(如专注AI医疗的企业)更倾向将大模型视为核心工具而非“操作系统”。共识集中在“大模型将成为数字世界的核心交互层”,但对“是否能替代传统操作系统的底层控制功能”仍有分歧。
  2. 闭源的核心原因:主要是两点,一是短期商业变现需求,通过订阅费、API调用收费快速回收百亿级研发成本(如ChatGPT的订阅模式);二是技术护城河保护,避免核心算法、训练数据(如谷歌的高质量私有数据集)泄露,防止竞争对手快速追赶。安全合规(如避免模型滥用)是次要但重要的补充原因。
  3. 开源与技术先进性的关系:该理解不完全准确
    • 部分开源模型技术已达顶尖水平(如中国的DeepSeek-R1、Meta曾开源的Llama 3),其开源目的是通过生态建设扩大影响力(如吸引开发者基于模型开发应用,反哺自身云服务);
    • 确实有中小公司因技术非顶尖,选择开源以差异化竞争(如通过生态协作弥补性能差距),但顶尖公司(如百度2025年开源文心大模型)也会为抢占生态入口开源部分技术,并非“顶尖技术必闭源”。

关键背景补充

  • 共识差异的本质:源于企业核心业务不同。云厂商(如阿里、微软)更愿推动大模型成为“操作系统”,因为能带动上游云算力、存储的销售;而纯AI公司(如月之暗面)更关注模型本身的商业价值,对“操作系统”远景热情较低。
  • 开源的战略价值:对顶尖公司而言,开源可快速构建开发者生态(如百度文心开源后,衍生出17万个行业模型),形成“模型-应用-数据”的正向循环,这种生态壁垒有时比技术壁垒更难被打破。
我可以帮你整理一份“顶尖公司开闭源策略对比表”,清晰列出谷歌、阿里、Meta等企业的立场、技术先进性与商业目标的关联,方便你直观理解不同选择的逻辑,需要吗?
好吧,那你列一下吧。

顶尖公司AI大模型开闭源策略对比表

表格
公司核心策略技术先进性商业目标关键动作/许可证代表模型
Meta从开源转向闭源(2025年7月)曾达顶尖水平(Llama 4支持多模态、1000万令牌上下文),但内部测试显示性能未达预期,被中国DeepSeek超越1. 控制技术闭环,为AR眼镜等“个人超级智能”硬件铺路,最大化商业收益
2. 回收百亿级研发成本,缓解商业回报焦虑
1. 此前Llama系列用“Meta Llama 3社区许可协议”,限制MAU超7亿的企业需单独申请商业许可,排除谷歌、微软等竞品
2. 2025年扎克伯格宣布“谨慎选择开源内容”,停止核心模型开源
Llama 3、Llama 4(转向闭源前的最后开源系列)
谷歌闭源为主,混合策略(核心闭源+小模型开源)核心模型(Gemini)技术顶尖,开源小模型(Gemma)性能适配基础场景1. 保护核心算法与高质量私有数据集,维持垂直领域(如医疗、金融)竞争壁垒
2. 2025年终止Android开源项目(AOSP),节约维护成本并强化GMS服务绑定,提升广告收入
1. 核心模型仅通过API提供服务,不开放源码
2. 终止AOSP公开分支维护,仅保留GPL协议要求的开源部分(如Linux内核驱动)
Gemini(闭源核心)、Gemma(开源小模型)、Android系统(原开源,2025年起闭源)
OpenAI完全闭源核心模型(GPT-4)技术顶尖,在理解、推理、代码能力上长期领先1. 通过订阅制(如ChatGPT Plus)、API调用收费快速回收成本(GPT-4训练成本超1亿美元)
2. 强调安全与伦理,规避模型滥用风险
1. 主要模型不开放源码,仅提供API访问
2. 2020年将GPT-3独家许可给微软,仅微软可访问其源代码
GPT-3、GPT-4
阿里云开源为主,布局闭源1. 开源模型达顶尖水平:Qwen1.5-110B在MMLU等测评中超越Meta Llama-3-70B,通义千问2.5在中文语境下赶超GPT-4 Turbo
2. 闭源模型处于布局阶段,暂未公开核心性能
1. 以开源构建开发者生态,通义开源模型累计下载量超700万,服务企业超9万,带动上游云算力销售
2. 覆盖多行业场景(天文、矿山、医疗等),通过行业解决方案变现
1. 开源模型采用宽松协议:万相2.1用Apache2.0协议,开放全部推理代码和权重;Qwen系列用MIT许可证
2. 坚持“每日一开源”策略,加速吸引全球开发者
通义千问2.5(闭源布局中)、Qwen1.5-110B(开源)、万相2.1(开源)
百度闭源为主闭源模型(文心系列)在中文处理、多模态能力上领先,李彦宏称“闭源模型能力会持续领先”1. 靠闭源模型探索商业模式,通过API调用、定制化服务收费,聚集算力与人才
2. 认为开源模型迭代依赖社区贡献有限,与传统软件开源逻辑不同
1. 核心模型不开放源码,仅提供对外服务接口
2. 未公开闭源模型具体许可条款,侧重商业合作定制
文心一言(ERNIE)系列
DeepSeek(中国)完全开源技术达顶尖水平:仅用550万美元训练成本便超越Meta Llama 4,DeepSeek-R1成本仅为OpenAI o1的3%1. 以开源吸引全球合作,规避数据合规顾虑(如HIPAA、SOC2认证)
2. 通过低成本优势(训练成本远低于OpenAI)扩大市场份额,构建开发者社区
1. 模型用MIT许可证,在GitHub开放源代码,允许免费使用、修改、商业分发
2. 接受社区拉取请求,鼓励开发者参与迭代
DeepSeek-V3、DeepSeek-R1
360、智谱等360坚持开源;智谱采取混合策略(小模型开源+核心闭源)1. 360开源模型侧重生态协作,暂未达全球顶尖水平
2. 智谱开源小模型适配基础场景,核心闭源模型性能对标行业主流
1. 360:相信开源力量,认为未来1-2年开源会赶超闭源,通过生态合作弥补技术差距
2. 智谱:用开源小模型吸引开发者,核心模型通过商业服务盈利
1. 360未公开具体开源协议,侧重社区共建
2. 智谱开源小模型采用宽松许可,核心模型不开放源码
360大模型(开源)、智谱清言(核心闭源)、智谱小模型(开源)
还有个数据我想知道,现在那个顶尖的这个人工智能公司,他们 API 调用每次调用的这个成本,你能不能做一个横向的对比一下?

顶尖AI公司API调用成本横向对比表(2025年数据)

表格
公司核心模型API计费单位基础定价(美元)典型场景单任务成本(估算)免费额度/优惠关键备注
OpenAIGPT-4o(文本)每1000 tokens输入/输出统一0.01街头霸王III战斗:0.025美元/场;法律合同分析(5000 tokens):0.05美元新开发者赠5美元试用额度;月调用超1000万tokens可申请定制折扣长上下文处理(超128k tokens)无额外溢价,非英语场景token消耗增加15%-20%
OpenAIGPT-4o-mini(文本)每1000 tokens0.0005街头霸王III战斗:0.0011美元/场;基础文案生成(2000 tokens):0.001美元同GPT-4o性价比最高模型,ELO评分1670.89,适合非高精度需求场景
GoogleGemini 1.5 Pro(多模态)每1000字符标准版0.00025;128k上下文窗口需额外付费金融研报分析(完整PDF+图表,10万字符):约0.025美元;代码生成(3000字符):0.00075美元新用户赠300美元云服务 credit(含API调用)MoE架构优势显著,处理50万token代码分析成本仅为Claude 3.5的1/3
AnthropicClaude 3 Haiku(视觉)每1000 tokens标准请求0.0025;复杂推理0.006街头霸王III战斗:0.00725美元/场;内容审核(4000 tokens,需高危过滤):0.0288美元无公开免费额度,企业用户可谈批量折扣按任务复杂度分级定价,代码生成场景比OpenAI节省18%成本
MistralPixtral-12B(文本)每1000 tokens0.0015街头霸王III战斗:0.00345美元/场;产品描述生成(2500 tokens):0.00375美元无固定免费额度,开源社区用户可获测试资源非视觉任务成本比同级别视觉模型低30%,支持本地部署与API调用双模式
MistralPixtral-large(视觉)每1000 tokens0.002街头霸王III战斗:0.006美元/场;图像场景分析(3500 tokens):0.007美元同Pixtral-12B视觉推理能力接近GPT-4o,成本仅为其1/5
阿里云通义千问(闭源,企业版)每1000 tokens0.0012(中文);0.0018(英文)中文新闻摘要(3000 tokens):0.0036美元;跨境电商文案(4000 tokens,中英混合):0.0068美元企业用户首月赠100万tokens免费额度“国际API平替计划”用户迁移成本降低90%,中文语境处理成本比GPT-4o低40%

关键对比结论

  1. 成本梯队划分
    • 超低成本梯队(单任务<0.005美元):OpenAI GPT-4o-mini、Mistral Pixtral-12B、阿里云通义千问(中文);
    • 中成本梯队(0.005-0.01美元):Mistral Pixtral-large、Anthropic Claude 3 Haiku;
    • 高成本梯队(>0.02美元):OpenAI GPT-4o、Google Gemini 1.5 Pro(长上下文)。
  2. 场景适配优先级
    • 中文任务优先选阿里云通义千问,成本最低且适配性强;
    • 视觉/多模态任务优先选Mistral Pixtral-large,性价比超OpenAI;
    • 长文本高精度任务(如金融研报)选Google Gemini 1.5 Pro,成本优势显著。
  3. 隐性成本提醒
    • 中国用户使用海外API需额外承担30%-50%代理/带宽成本(如Gemini实际成本约0.000375美元/1000字符);
    • 高频调用(月超100万tokens)建议谈企业定制价,OpenAI、Google可再降15%-25%成本。
我可以帮你根据具体使用场景(如“中文内容生成”“视觉推理”“长文本分析”)生成专属的API成本优化方案,需要吗?
从这些顶尖模型公司,他们的 API 订阅成本、调用成本,以及他们的研发投入,你能估计出哪些?评估一下,列表一下,哪些公司有挣钱,哪些公司有亏损,或者哪些公司潜在挣钱或潜在亏本?能分析一下吗?

顶尖AI模型公司盈利状态评估表(基于API成本、研发投入及财务数据)

表格
公司核心API成本(美元/1K tokens)2024-2025年研发投入(估算)盈利状态关键判断依据潜在风险/优势
OpenAIGPT-4o:输入0.01/输出0.03;GPT-4o-mini:0.0005超150亿美元(含微软算力支持)潜在盈利(未公开明确盈利)1. 2024年收入37亿美元,主要来自API订阅与ChatGPT Plus(月费20美元);
2. GPT-4o规模化后边际成本下降,高频用户定制折扣提升付费转化率;
3. 但百亿级研发投入仍需时间覆盖,暂未实现净利润转正。
优势:技术壁垒高,企业客户付费意愿强;风险:研发持续烧钱,商业化速度不及预期。
Google(Gemini)Gemini 1.5 Pro:标准版0.00025(128K上下文额外付费);Gemini Flash-Lite:0.000075/1K tokens750亿美元(2025年AI总投资计划)间接盈利(依托谷歌生态变现)1. API定价极低,核心目的是带动谷歌云服务(如算力租赁)与广告业务;
2. Gemini集成于Search、Workspace等产品,提升用户粘性,间接增加营收;
3. 单独API业务暂不盈利,但整体生态反哺效应显著。
优势:生态协同性强,隐性收益高;风险:API低价策略挤压利润空间,技术投入回报周期长。
Anthropic(Claude)Claude 3 Haiku:标准0.0025/复杂推理0.006;Claude 3 Opus:0.015/1K tokens超50亿美元(主要来自谷歌投资)亏损(依赖外部投资)1. API定价高于OpenAI,但用户规模较小,2024年营收未公开且推测低于10亿美元;
2. 复杂推理与内容审核场景成本高(高危过滤额外加收20%费用),边际收益低;
3. 尚未形成稳定盈利模式,需持续依赖谷歌等投资方注资。
优势:安全过滤能力强,垂直领域(如法律)有竞争力;风险:营收规模小,盈利依赖外部资金。
阿里云(通义千问)中文0.0012/英文0.0018(企业版)超1000亿元(阿里三年AI总投入3800亿元的一部分)间接盈利(依托云业务分摊成本)1. API定价仅为OpenAI的1/25,核心目的是吸引企业客户使用阿里云算力与定制服务;
2. 开源模型(如Qwen系列)带动上游云服务器销售,2024年AI相关云业务收入增长超40%;
3. 单独API业务微利,但云生态整体盈利覆盖AI研发成本。
优势:中文场景成本优势显著,云业务支撑强;风险:低价策略压缩API利润,开源投入持续烧钱。
百度(文心一言)企业版约0.00028美元/1K tokens(0.002元)超1800亿元(百度近十年累计研发投入)亏损(API收入覆盖不了研发)1. API定价极低,2024年公开数据显示文心一言相关收入不足10亿元;
2. 闭源模型研发成本高,且未形成规模化付费用户群体;
3. 主要依赖百度搜索、智能云等业务补贴AI研发,单独AI板块持续亏损。
优势:中文处理能力领先,有稳定流量入口;风险:商业化进度慢,研发成本高企。
DeepSeek开源免费(基础版)/企业定制收费(未公开具体API价)约10亿美元(2024-2025年)潜在盈利(理论盈利模型跑通)1. 理论数据:R1推理系统日利润47.5万美元(约346万元),成本利润率545%,依赖GPU利用率优化(跨节点专家并行技术)与夜间资源调配;
2. 实际收入虽低于理论值,但开源吸引开发者生态,企业定制服务(如医疗、金融)已产生稳定收益;
3. 是少数公开披露“理论盈利”的初创公司,成本控制能力行业领先。
优势:成本控制极致,开源生态带动商业化;风险:实际营收规模未公开,盈利稳定性待验证。
昆仑万维(天工)开源免费(如Skywork-R1V 2.0)/企业版未公开定价15.4亿元(2024年研发费用,同比+59.5%)明确亏损1. 2024年净利润亏损15.95亿元,主要因AI研发投入增加(15.4亿元)+投资损失8.2亿元;
2. 开源模型未产生直接API收入,AI应用(如短剧、音乐)处于探索期,营收贡献不足5%;
3. 依赖游戏业务(收入占比9.6%)与海外投资补贴AI,盈利前景不明。
优势:多模态布局早(音乐、3D),海外收入占比88%;风险:研发投入高,AI业务短期难盈利。
润和软件行业定制API未公开(基于润和智数等产品)未公开(2024年净资产收益率4.75%)盈利(依托行业应用)1. 聚焦IT服务与金融科技,AI API嵌入行业解决方案(如智研、智造),2024年净利率5.16%;
2. 研发投入集中在垂直场景,成本低且客户付费意愿强(金融行业客单价高);
3. 是少数明确实现AI相关盈利的公司,依赖行业定制而非通用API。
优势:垂直领域(金融)落地能力强,盈利模式清晰;风险:通用大模型技术储备弱,增长天花板低。
合合信息智能文字识别API未公开(基于acge模型)未公开(2024年净资产收益率42.96%)盈利(垂直场景高毛利)1. 聚焦智能文字识别,API嵌入金融、政务等场景,2024年毛利率83.8%、净利率24.62%;
2. 垂直模型研发成本低,且客户(如银行)付费能力强,无需依赖低价策略;
3. 盈利不依赖通用大模型,而是细分场景的技术落地,利润稳定性高。
优势:垂直场景技术壁垒高,毛利超80%;风险:业务范围窄,受行业周期影响大。

核心结论

  1. 明确盈利梯队:仅聚焦垂直场景的公司实现盈利,如合合信息(文字识别,净利率24.62%)、润和软件(金融IT,净利率5.16%),核心逻辑是“低研发成本+高付费意愿客户”。
  2. 潜在盈利梯队:通用大模型公司中,OpenAI(收入37亿美元,接近覆盖研发)、DeepSeek(理论利润率545%,成本控制强)具备盈利潜力,但需规模化付费用户或稳定企业定制订单支撑。
  3. 明确亏损梯队昆仑万维(2024年亏15.95亿元)、Anthropic(依赖投资)、百度(AI收入不足10亿元),核心问题是“研发投入高+API收入/生态反哺不足”。
  4. 间接盈利梯队Google阿里云依托自身生态(云服务、广告)实现“API低价引流+生态整体盈利”,单独API业务不赚钱,但能带动核心业务增长,属于“以AI换生态”的策略。
我可以帮你进一步整理“垂直场景VS通用大模型盈利模式对比表”,清晰拆解两类公司的成本结构、收入来源和盈利关键,需要吗?
好吧,那你再弄个对比表吧。
以下是根据现有信息整理的顶尖模型公司 API 相关情况对比表:
表格
公司API 调用成本研发投入情况盈利情况
OpenAIGPT-4 按 token 计费,约$0.03/1K tokens;GPT-4 Turbo版本每千tokens输入收费$0.01,输出$0.03;GPT-3.5 Turbo输入Token价格约为$0.0015 / 千 Token,输出为 $0.002 / 千 TokenOpenAI 研发投入巨大,但其具体研发投入金额未完全公开未明确公开盈利情况,由于研发成本高昂,短期内可能难以实现大规模盈利
GoogleGemini Pro 2.5 标准版每千字符收费$0.00025美元,128K上下文窗口需额外付费;Gemini Flash-Lite每百万token成本低至$0.075Google 作为科技巨头,在 AI 领域投入大量资源,具体研发投入金额未单独针对大模型明确披露Google 整体业务盈利,但大模型业务对公司整体盈利的具体贡献不明确
AnthropicClaude 3.5 的成本区间为$0.008-$0.024/1K tokens研发投入情况未公开未公开盈利情况,其商业模式和盈利状况尚不明确
文心一言企业版定价为 0.002 元 / 千 tokens(约 $0.00028)百度在 AI 领域有持续的研发投入,但大模型具体研发投入金额未明确百度整体业务有盈利,但大模型业务的盈利情况未单独披露
深度求索输入 Token 价格约为 0.0003 元 / Token,输出为 0.0006 元 / Token研发投入情况未公开未公开盈利情况
需要注意的是,以上信息部分来源于公开资料,可能存在一定的局限性,各公司的实际情况可能会有所变化。
相关视频
可以说目前没有真正盈利的人工智能公司,能不能这么讲?
不能这么讲。虽然部分专注于大模型研发的人工智能公司尚未实现明显盈利,但在整个人工智能行业中,已经有一些公司通过不同的业务模式实现了盈利。
例如,工业富联作为全球 AI 服务器代工龙头,2025 年上半年 AI 服务器营收同比增长 60%,净利润达 119 亿元,同比增长 39%。中际旭创作为全球光模块龙头,2025 年上半年净利润预计 36-44 亿元,同比增速高达 86%。
此外,寒武纪在 2025 年第一季度成功实现净利润扭亏为盈,新增订单额超 15 亿元。科大讯飞在智能语音、教育和医疗领域具有垄断性地位,2025 年 Q1 净利润同比增长 45%。“AIGC 港股第一股” 出门问问 2025 年上半年公司收入 1.79 亿元,同比增长 10%,期内亏损 290 万元,同比减少 99.5%,已接近盈亏平衡。第四范式 2025 财年上半年总营收 26.26 亿元,较去年同期增长约 40.7%,经调整归母净亏损较去年同期缩窄约 71.2%,朝着全年实现扭亏为盈的目标迈出了坚实一步。
相关视频
参考 4 篇资料
目前没有真正盈利的人工智能公司的原因是什么?
人工智能公司的盈利前景怎么样?