v8.699.9220 最新版
v2.625.1518.638283 安卓最新版
v5.196.6683 安卓版
v1.552.3710.364847 安卓漢化版
v6.39.7452 安卓免費版
v5.335.1572.351917 PC版
v5.234 安卓漢化版
v8.223.1276.774781 IOS版
v1.187.335.812196 安卓版
v6.451.3346.112604 安卓漢化版
v4.199.9214.623255 安卓免費版
v9.926.5530.671179 PC版
v4.362.6386 IOS版
v8.449.6623.46777 安卓版
v9.32.8777 安卓最新版
v3.96.8110.913789 最新版
v5.834 安卓版
v4.505.6881.634411 PC版
v5.796.4295 PC版
v2.443.3739 安卓漢化版
v5.909.7018 安卓漢化版
v4.65 IOS版
v4.582 安卓漢化版
v9.382.7444.536380 安卓漢化版
v8.647.3386.218229 IOS版
v3.474 安卓漢化版
v9.249.3561.531623 安卓免費版
v5.319 安卓最新版
v7.942.9422.703315 最新版
v8.861.4523 安卓版
v5.884.7445.692162 安卓版
v9.666.1208.430547 安卓漢化版
v2.193 安卓版
v7.960.5406.881627 最新版
v5.518.2337 最新版
v3.0.6781.703769 IOS版
v8.847.766 安卓漢化版
v3.24 IOS版
v4.999.9117.364175 安卓免費版
v8.725.675.929868 安卓漢化版
v8.146.6040 IOS版
v4.948 安卓最新版
v7.323.4855 安卓免費版
v1.32.7625.393235 IOS版
v5.100 安卓版
v8.136 安卓版
v9.909 安卓漢化版
v2.707.546.652124 IOS版
v6.235.1566 最新版
v1.265 安卓免費版
v9.741.7631.892092 最新版
v4.597.3627.961558 安卓漢化版
v3.351.3521.945499 PC版
v5.431.719 安卓最新版
v1.535 安卓最新版
v5.37 安卓漢化版
v8.942.2637.503530 最新版
v1.773.9876 安卓最新版
v4.733.8351.417374 IOS版
v5.281.3164.131162 PC版
v4.236.1975.442634 最新版
v3.932.6049 PC版
v3.230.2025.84208 PC版
v3.848 安卓漢化版
v8.196.8362.576497 安卓免費版
v8.696.1970.274199 IOS版
v8.167.3386.103083 安卓免費版
v7.279.8675.195671 最新版
v8.704 安卓版
v3.468.467.514896 PC版
v4.615.3359 安卓最新版
v1.945 安卓漢化版
v6.669.9404.67140 安卓最新版
v9.609.2928.595727 IOS版
v5.863.3438 PC版
v2.253.1073.190283 安卓漢化版
v7.343 安卓版
v8.537.9584.390559 安卓免費版
v3.64 IOS版
v3.608 最新版
2021偷拍精品一区二区
《科创板日报》11月29日讯 随着Gemini 3的横空出世,谷歌TPU从幕后走到台前。英伟达GPU的霸主地位已然有被撼动迹象。
谷歌云内部高管透露,扩大TPU的市场采用率,有望帮助公司抢占英伟达年收入份额的10%。紧接着,市场便传出“谷歌加紧向客户推销TPU”“Meta拟斥资数十亿美元购买TPU”等一系列消息。大摩分析师大胆预测,2027年谷歌TPU外销量将达到100万颗。
另一边,投资者纷纷用脚投票,表达了对英伟达GPU市场遭遇侵蚀的担忧。英伟达官方发布紧急声明,强调自家产品比ASIC拥有更高的性能、更强的通用性以及更好的可替代性。
从闭关修炼的隐世高手,到如今直通AI芯片的决赛圈,谷歌TPU的起源还要从12年前的那场“算力焦虑”说起。
▌深度学习的最优解
2013年,深度学习在谷歌内部的应用开始不断扩散,后台模型的复杂度和算力消耗规模逐渐呈指数级增长。谷歌首席科学家Jeff Dean通过计算发现,若1亿安卓用户每天使用3分钟语音转文字服务,则消耗的算力竟高达谷歌所有数据中心总算力的两倍不止。
堆砌GPU以获取算力固然是符合直觉的选项,但由于“冯·诺依曼瓶颈”的存在,导致诸如CPU和GPU等计算单元在处理深度学习中大规模矩阵乘法等特定任务时效率低下。相比之下,自研ASIC加速器可为机器学习任务定制架构,能将深度神经网络推理的总体能效降至原来的十分之一,长期来看成本更为可观。
于是在2013年底,谷歌正式启动了初代TPU项目。据报道,当时谷歌内部有三个团队投身于ASIC的研发工作,包括 Google Brain、DeepMind以及专注数据中心定制硬件开发的部门。后者的TPU最终获选,其关键成员具备多年的芯片架构设计经验。如Jonathan Ross曾参与AMD的Zen架构设计,并于后来创立了AI芯片设计公司Groq。
谷歌团队进展迅速,距立项仅过去15个月,便完成了初代TPU的设计、验证、制造,乃至在数据中心的部署。项目牵头人Norm Jouppi如此描述当时情景:“我们的芯片设计速度非常快,在没有修正错误或更改掩膜的情况下便已开始出货芯片。”
2016年,TPU迎来了它的首个“破圈时刻”:人工智能围棋程序AlphaGo击败了世界围棋冠军李世石,引发了人们对AI的广泛关注。当时AlphaGo背后正是初代TPU在提供算力支持。
研发上,重大的转折发生在2017年。这一年,谷歌团队在《Attention Is All You Need》中介绍了Transformer——一种基于注意力机制的全新深度学习架构。其计算特性与TPU设计高度适配,最终推动 TPU的战略地位从单一AI加速芯片升级为谷歌的AI基础设施底座。值此背景下,TPU v2应运而生。
同样在这一年,谷歌宣布免费开放 1000 台 Cloud TPU 供开发者和研究人员使用,进一步巩固了TPU 作为AI 基础设施底座的地位。往后的日子里,谷歌引入了大规模液冷技术,将4096颗芯片组成超节点,并利用自研的环形拓扑网络实现近乎无损的跨芯片通信。在各路“外挂”的加持下,TPU朝着更强的性能一路狂飙。
而在技术之外,谷歌也毫不悭吝地将TPU引进广告系统、搜索核心排序等赚钱产品线。在2024年的应用开发与基础设施峰会上,谷歌公开表示,TPU V6及后续版本的目标是成为“推理时代最省钱的商业引擎”。
往后的故事逐渐为人所熟知,随着TPU v7被投入人工智能训练,当今公认的最强多模态模型Gemini 3横空出世。谷歌也摇身一变,从算力芯片领域的追随者一跃成为市场眼中的AI新王。人们不禁好奇,十年磨一芯,谷歌究竟做对了什么?
▌难以复制的生态护城河
回顾谷歌的造芯故事,里面没有通往AGI的宏大愿景,也没有遵循Scaling Law的绝对指引,而是始终紧扣一项更符合商业逻辑,也更显务实的指标——成本。
如果深究,则TPU的历史可以一直追溯到2006年,那时谷歌便开始考虑为神经网络构建ASIC的可能性。只不过由于当时互联网正处于爆发前夜,谷歌数据中心的GPU算力仍有大量冗余,相关需求并不迫切,因此并未透支额外成本来实际推进这一计划。
这种“量体裁衣”的理念甚至体现在TPU的设计架构本身。与GPU不同,TPU采用极简的“脉动阵列”架构,这虽然付出了放弃硬件通用性的代价,但也意味着能够剥离掉一切无关硬件,从而保证在最小单位追求深度学习的最大效率。
现如今,这种设计架构显然为谷歌带来了远超“节省成本”的回报,即与其他顶尖AI厂商掰手腕的资本。
更重要的意义在于,与其他厂商严重依赖外部算力和云设施不同,谷歌以TPU为底座的垂直整合路线,构建出了“芯片-云-模型-应用”的全栈AI能力链条。正如券商分析师们所言,这令其形成了难以复制的生态护城河,也赢得了定义未来AI基础设施的入场券。
相关版本
多平台下载
查看所有0条评论>网友评论