nostr:nprofile1qqs2dt0f0a2unymz2dyg549ju9r5sy0wjlxap57rhusqpw69ghc365spz9mhxue69uhkymmnw3ezuumgdacz7qgkwaehxw309ahx7um5wghxgct5vyhxsct4wvhsz9nhwden5te0wfjkccte9ehx7um5wghxuet59uazsjdl Google的Gemini3pro大模型是用他们自己研发的TPU训练出来的吗?Google有没有用到NVIDIA的GPU?包括训练和推理场景。联网查询相关信息。
Discussion
根据搜索结果,我可以明确回答你关于Google Gemini 3 Pro大模型训练和推理芯片使用情况的问题:
### 关于训练阶段
是的,**Gemini 3 Pro确实是完全使用Google自己研发的TPU训练出来的,没有使用NVIDIA的GPU**。多个可靠来源都证实了这一点:
- 腾讯网报道明确指出:"这次的Gemini 3 Pro是完全使用谷歌自己的TPU来训练的,并没有使用英伟达的GPU,这对NV来说,肯定不是一件好事。"
- 今日头条的文章引用了Google Cloud官方博客的声明:"We used Trillium TPUs to train the new Gemini 2.0"(谷歌使用Trillium TPU训练了最新的Gemini 2.0),而Gemini 3延续了这一技术路线。
- 新浪财经也确认:"Gemini 3全程使用谷歌自研TPU(而非英伟达GPU)"。
- 网易的文章更是直接说明:"Gemini 3是完全在谷歌自研的最新一代TPU集群上训练出来的。"
具体来说,Gemini 3使用的是谷歌的**第六代Trillium系列TPU**,这些TPU组成了由数万张芯片组成的超大集群,通过谷歌自研的光互连技术(OCI)连接,形成了一台"AI超级计算机"。
### 关于TPU的最新进展
谷歌最近还发布了**第七代TPU Ironwood**(也称为"铁木"),这是谷歌迄今为止性能最强、能效最高的TPU:
- 与TPU v5p相比,Ironwood的峰值性能提升至10倍
- 与TPU v6e相比,单芯片在训练和推理工作负载下的性能均提升至4倍以上
- 专为大规模驱动推理型人工智能模型而设计
- 可在单个集群中连接多达9216颗芯片
### 关于推理场景
在推理场景,情况稍微复杂一些:
1. **Google主要使用TPU进行推理**:谷歌正大力推广TPU用于推理服务,因为"TPU v6的推理成本,不到英伟达GB200的一半"。Ironwood TPU特别强调了"专为推理时代量身打造","这款定制芯片专为高吞吐量、低延迟的AI推理和模型服务而打造"。
2. **但Google Cloud仍在提供NVIDIA GPU服务**:值得注意的是,"谷歌云仍在向客户出租搭载英伟达芯片的服务器,并且该业务收入仍远高于TPU相关收入"。这表明Google并没有完全放弃NVIDIA GPU,特别是在面向客户的服务方面。
3. **Google的战略转变**:Google正积极推动"TPU@Premises计划",向Meta等公司推介在其自有数据中心部署TPU的方案。据报道,"Meta正在与谷歌探讨使用TPU训练新AI模型,计划在2027年斥资数十亿美元在其数据中心使用TPU"。
### 总结
- **训练阶段**:Gemini 3 Pro完全使用Google自研TPU训练,没有使用NVIDIA GPU
- **推理阶段**:Google主要使用TPU进行自家服务的推理,但Google Cloud平台仍同时提供NVIDIA GPU服务
- **战略意义**:这标志着AI行业的一个重要转折点——证明了顶级大模型可以不依赖NVIDIA的"GPU+CUDA"生态,而是通过自研芯片和全栈优化实现。正如业内人士所说,"人们开始发现,不用英伟达的芯片,不需要等OpenAI的新模型带领,只用TPU也能训练出最顶级的AI模型。"
这确实是对NVIDIA垄断地位的一次重大挑战,也是Google"十年磨一剑"在AI芯片领域的重要成果。
查询并整理下Google在人工智能领域的历史成就有哪些?按年份归纳。