AI在线 AI在线

AI巨头的算力账:谷歌自研TPU,绕过英伟达税,成本仅为OpenAI两成!OpenAI VS 谷歌企业怎么选?盘点四大决策关键!

作者:伊风
2025-04-29 11:31
编译 | 伊风随着生成式 AI 技术的迅猛发展,全球科技巨头围绕 AI 平台的竞争也日益白热化。 近期,OpenAI 发布了强大的 o3 和 o4-mini 推理模型以及 GPT-4.1 系列,谷歌则迅速推出了 Gemini 2.5 Flash主打“性价比”路线,作为对稍早发布的旗舰版 Gemini 2.5 Pro 的迭代更新。 虽然模型对比测试经常成为头条新闻,但对于技术决策者而言,选择 AI 平台所涉及的内容要深远得多。

编译 | 伊风

随着生成式 AI 技术的迅猛发展,全球科技巨头围绕 AI 平台的竞争也日益白热化。近期,OpenAI 发布了强大的 o3 和 o4-mini 推理模型以及 GPT-4.1 系列,谷歌则迅速推出了 Gemini 2.5 Flash主打“性价比”路线,作为对稍早发布的旗舰版 Gemini 2.5 Pro 的迭代更新。

虽然模型对比测试经常成为头条新闻,但对于技术决策者而言,选择 AI 平台所涉及的内容要深远得多。这不仅仅是选择一个模型,而是对整个生态系统的承诺,影响到从基础算力成本、智能体开发策略,到模型可靠性、企业集成的方方面面。

其中,隐藏在水面之下、却具有深远长期影响的最关键差异,是支撑这些 AI 巨头的硬件经济学。凭借自研芯片,谷歌在成本上拥有巨大的优势,使其 AI 工作负载的运行成本可能只是依赖英伟达(Nvidia)高利润率 GPU 的 OpenAI 的一小部分。

本文将从算力成本、智能体框架策略、模型能力对比,以及企业适配与分发四个关键维度,深入对比谷歌与 OpenAI/Microsoft 的平台优势与局限,剖析这场生成式 AI 平台之战背后更深层次的力量对比。

算力:硬件层面上,OpenAI的算力成本达谷歌4-6 倍

谷歌最重要、但往往被低估的优势,是它的“秘密武器”:十年来持续投入开发的TPU。TPU是谷歌为自身的核心 AI 工作负载量身定做并部署自有的,比如最近亮相的 Ironwood 系列,就用在了 Gemini 模型的训练与推理。

而 OpenAI 以及更广泛的AI玩家,仍高度依赖英伟达昂贵而强大的 GPU(如 H100 和 A100)。

这为什么重要?因为它带来了巨大的成本差异。

英伟达的 GPU(尤其是面向数据中心的 H100 和即将推出的 B100)拥有惊人的毛利率,据分析师估计可高达 80%。这意味着 OpenAI(通过微软 Azure)需要为算力支付一笔高昂的溢价——也就是所谓的“英伟达税”。而谷歌凭借自有 TPU,自然跳过了这层加价。

据报道,虽然制造一块 GPU 的成本可能仅为 3,000-5,000 美元,但像微软这样的超大规模客户(为 OpenAI 提供服务)却需以 20,000-35,000 美元以上的单价批量购买。行业内部讨论和分析表明,谷歌获得 AI 算力的单位成本,可能仅为依赖高端英伟达 GPU 客户的约 20%。

虽然具体数字属于内部机密,但这意味着在硬件层面上,谷歌的单位算力成本优势大约是 4-6 倍。

这种结构性优势已经反映在 API 定价上。如果对比旗舰模型,OpenAI 的 o3 在标准上下文长度下,输入 token 的价格大约是谷歌 Gemini 2.5 Pro 的 8 倍,输出 token 的价格是 4 倍左右。

而这种成本差异并不仅仅是理论问题,它带来了深远的战略影响。谷歌能够以更低的价格维持竞争,并且实现更高的“每美元智能密度”,为企业提供更可预测的长期总拥有成本(TCO)——而这正是它现在实际在做的事情。

与此同时,OpenAI 的成本结构则被紧紧绑定在英伟达的定价权和其 Azure 合作协议上。根据一些报告,算力成本预计占 OpenAI 2024 年 90 亿美元总运营费用的 55%-60%,到 2025 年随着规模扩大,这一比例可能超过 80%。虽然 OpenAI 的收入增长预期非常惊人——根据内部预测,到 2029 年有望达到 1250 亿美元——但如何控制算力开销,仍然是其必须解决的核心挑战,也促使他们加速自研芯片的布局。

智能体框架:谷歌的开放生态系统 vs. OpenAI 的一体化策略

除了硬件之外,这两大巨头在构建和部署企业自动化智能体方面也走上了截然不同的道路。

谷歌正在积极推进互操作性和更开放的生态体系。在两周前的 Cloud Next 大会上,谷歌发布了 Agent-to-Agent(A2A)协议,旨在让不同平台上构建的智能体能够互相通信,同时推出了 Agent Development Kit(ADK)和用于发现与管理智能体的 Agentspace 中枢。

虽然 A2A 的推广仍面临挑战——例如 Anthropic 尚未加入,而且部分开发者质疑 A2A 是否有必要,因为已有类似的 Model Context Protocol(MCP)——但谷歌的意图非常明确:希望打造一个多供应商共存的智能体市场,可能依托 Agent Garden 平台,或未来推出传闻中的 Agent App Store。

相比之下,OpenAI 则似乎专注于打造强大、紧密集成在自身技术栈内的工具型智能体。新的 o3 模型就是一个典型例子,能在一次推理链中发起数百次工具调用。开发者可以利用 Responses API、Agents SDK,以及新推出的 Codex CLI 等工具,构建运行于 OpenAI/Azure 信任边界内的复杂智能体。虽然微软的 Autogen 框架提供了一定的灵活性,但 OpenAI 的核心策略显然不是为了促进跨平台通信,而是为了在自己可控的环境中,垂直深化智能体能力。

在这一部分,企业决策的tips是:如果公司优先考虑灵活性,希望能自由组合来自不同供应商的智能体(例如将 Salesforce 智能体接入 Vertex AI),那么谷歌的开放策略更具吸引力。而如果企业已经深度绑定 Azure/Microsoft 体系,或更偏好高度集成、性能卓越的智能体栈,则可能更倾向选择 OpenAI。

模型能力:水平、性能与痛点

快速迭代的发布周期意味着模型领先地位转瞬即逝。虽然在部分编码基准测试(如 SWE-Bench Verified 和 Aider)上,OpenAI 的 o3 模型略胜于 Gemini 2.5 Pro,但在其他测试(如 GPQA 和 AIME)中,Gemini 2.5 Pro 又能追平或领先。值得注意的是,Gemini 2.5 Pro 目前在大型语言模型(LLM)竞技场排行榜(Arena Leaderboard)上总体排名第一。

不过,对于很多企业应用场景来说,两者在核心能力上已大致持平。

真正的区别在于各自的取舍侧重点:

  • 上下文长度 vs. 推理深度:Gemini 2.5 Pro 拥有高达 100 万 token 的上下文窗口(未来计划扩展到 200 万),非常适合处理大型代码库或文档集。OpenAI 的 o3 上下文窗口为 20 万,但更强调单轮推理中的深度、多工具协作推理,得益于其强化学习训练方法。
  • 可靠性 vs. 风险:这一点正成为关键差异。虽然 o3 展现了令人印象深刻的推理能力,但 OpenAI 自己的模型卡披露,o3 在 PersonQA 测试上的幻觉(hallucination)率是 o1 的两倍。有分析认为,这可能与其复杂的推理链与工具调用机制有关。而 Gemini 2.5 Pro 虽然在输出结构上有时被认为不如 o3 那样“创新”,但用户普遍反映它在企业任务中更加可靠、可预测。因此,企业必须在追求最前沿推理能力与接受更高幻觉风险之间做出权衡。

考虑到这个维度,企业必须针对具体情况进行决策,因为不同模型在具体任务的表现有高低。若需要处理超大上下文或更注重输出可预测性,Gemini 2.5 Pro 更具优势;若任务对多工具深度推理要求极高,且能严格管理幻觉风险,那么 o3 是一个非常有力的选项。正如 Sam Witteveen 在我们播客中指出的:在具体企业场景中进行严格测试是不可或缺的。

企业适配与分发:集成深度 vs. 市场触达最终,企业是否采纳,往往取决于平台能否顺利融入现有的基础设施与工作流。

谷歌的强项在于为现有 Google Cloud 和 Workspace 客户提供深度集成。Gemini 模型、Vertex AI、Agentspace 以及 BigQuery 等工具高度协同,统一的控制平台和数据治理机制,使得已投资谷歌生态的公司可以更快实现价值落地。谷歌正积极吸引大型企业客户,如 Wendy’s、Wayfair 和富国银行等部署案例。

OpenAI 则依托微软,拥有无可比拟的市场覆盖与可达性。ChatGPT 庞大的用户基础(大约 8 亿月活用户)带来了极高的普及度。更重要的是,微软正将 OpenAI 模型(包括最新的 o 系列)积极融入 Microsoft 365 Copilot 和 Azure 服务,使强大的 AI 能力快速渗透到数亿企业用户每天使用的工具中。对于已经标准化使用 Azure 和 Microsoft 365 的企业来说,采纳 OpenAI 解决方案是一种自然的延伸。此外,开发者普遍使用 OpenAI API,也意味着很多企业已有的提示词(prompt)和工作流已天然适配 OpenAI 模型。

因此, 最终的选择往往取决于现有的供应商体系:

  • 如果已经是谷歌生态的重度用户,谷歌提供了高度整合且连贯的解决方案。
  • 如果企业更偏向微软体系,OpenAI 则凭借微软的强大分发网络,带来了广泛的可访问性与潜在的低门槛部署体验。

写在最后:AI巨头不可忽视的算力之战

2024年,当谷歌发布屡屡遭到“群嘲”时,谷歌CEOPichai回应说,“当我们正处于AI的拐点上时,我看到的是机会,所以如果把这个时间线拉长,那么某一天发生的某一件事就都无关紧要了。”而现在谷歌正以迅猛的势头,和OpenAI并驾齐驱。

而在这场拉锯战中,算力成本或许是未来最关键、最具决定性影响的差异——尤其是在 OpenAI 尚未能快速解决这一问题的情况下。

这不仅仅是价格差异的小问题,而是直接影响到诸如 API 成本可承受性、长期总拥有成本(TCO)可预测性,以及 AI 部署的可扩展性等各个层面。随着 AI 工作负载呈指数级增长,拥有更可持续经济引擎(即更高硬件成本效率)的平台,将在战略上占据强有力的领先地位。谷歌正在利用这一优势,同时积极推进智能体互操作性的开放愿景。

OpenAI 则依托微软的规模优势,通过深度集成的工具型模型和无与伦比的市场触达能力展开反击,尽管其成本结构和模型可靠性仍然存在一定疑问。

要做出正确选择,企业技术负责人需要超越表面基准测试,从以下几个维度综合评估各大生态系统:

  • 长期总拥有成本(TCO)的影响;
  • 偏好的智能体策略与开放性程度;
  • 对模型可靠性风险与推理能力原始性能的容忍度;
  • 现有技术栈的适配情况;
  • 以及自身的具体应用需求。

原文链接:https://venturebeat.com/ai/the-new-ai-calculus-googles-80-cost-edge-vs-openais-ecosystem/

相关标签:

相关资讯

OpenAI直播狙击谷歌,奥特曼AGI梗图现场直出!GPT-4o超强原生生图来袭

就在谷歌刚刚扔出地表最强模型Gemini 2.5 Pro不久,OpenAI也有动作了。 奥特曼亲自带队,展示了GPT-4o图像生成技术的各种大升级,比如制作梗图、文本渲染、多轮交互生成和指令遵循等。 整个直播中最亮的演示,莫过于这张官方玩梗的表情包了。
3/26/2025 10:21:58 AM
新智元

OpenAI、谷歌等一线大模型科学家公开课,斯坦福CS 25春季上新!

在斯坦福,有一门专门讲 Transformer 的课程,名叫 CS 25。 这门课曾经邀请过 Geoffrey Hinton、Andrej Karpathy 以及 OpenAI 的 Hyung Won Chung、Jason Wei 等一线大模型研究科学家担任讲师,在 AI 社区引起广泛关注。 最近,这门课又上新了。
4/27/2025 8:40:00 AM
机器之心

Nature:OpenAI推出AI研究助手,深度综述能力引发学界关注

编辑 | matrix科技巨头 OpenAI 于 2 月 2 日推出付费工具「Deep Research」,这款工具能将数十或数百个网站的信息综合为带有引用的完整报告。 此举紧随谷歌在去年 12 月发布的类似产品,标志着 AI 个人研究助手时代的来临。 这类工具最显著的特点是将原本需要数小时的研究工作压缩至数十分钟内完成,引发学界广泛关注。
2/7/2025 6:24:00 PM
ScienceAI
  • 1