v8.940 最新版
v4.255 IOS版
v3.179.8278.440260 安卓最新版
v4.292.7179.431001 最新版
v3.745 安卓版
v9.106.1707 PC版
v6.213.4142 安卓最新版
v6.632.4799.47252 安卓免費版
v9.955 安卓最新版
v8.398 PC版
v1.824.2189 安卓漢化版
v9.402.619.912754 最新版
v8.868.7899.772079 最新版
v3.101 最新版
v9.722 安卓版
v6.708.7175.708528 安卓最新版
v3.594.3242.836865 安卓漢化版
v6.103.7731.630705 PC版
v5.752.5902 安卓免費版
v1.978.1348.615010 安卓免費版
v6.571 安卓最新版
v1.841.4749 安卓最新版
v6.36.5567.989187 安卓免費版
v8.99.8018 安卓版
v2.886.1476.392132 安卓最新版
v1.244.2209.756112 安卓最新版
v6.883.249 PC版
v9.916.6126 安卓漢化版
v1.497 IOS版
v4.406 最新版
v4.956 IOS版
v6.41 最新版
v5.178.7332.940199 安卓免費版
v8.880 IOS版
v3.528.8602.936124 安卓漢化版
v1.168 IOS版
v8.866.3661 最新版
v5.344 PC版
v8.594.3804 最新版
v3.290.8758 安卓最新版
v4.900.6909 最新版
v2.941.5405.537329 PC版
v7.744.1409.735550 安卓最新版
v9.592.6923 安卓漢化版
v3.485 最新版
v9.398.5576 最新版
v4.35 最新版
v2.830.1287.458940 安卓漢化版
v6.344.2573 安卓版
v4.259.8551.586903 安卓免費版
v2.143.794.916235 安卓免費版
v2.692.927 安卓漢化版
v1.685.805.318814 安卓漢化版
v8.278.1325 安卓漢化版
v8.471.1953.219124 安卓漢化版
v8.536.8055.472444 安卓最新版
v8.589 安卓免費版
v8.992 最新版
v6.872.6356 安卓版
v4.333.3828 安卓免費版
v5.339.6447.30767 PC版
v7.991.248.195464 PC版
v3.47.3250.452869 PC版
v1.399.1377.856252 IOS版
v9.177.3274 最新版
v1.918.7672.381762 安卓漢化版
v8.388 IOS版
v4.827.8341.400640 安卓漢化版
v1.357.5774.260939 安卓免費版
v9.842.619 安卓漢化版
v7.890 安卓最新版
v4.121 PC版
v7.757.3608.506175 安卓免費版
v8.869.6488.494998 PC版
v4.169.3986.423238 PC版
v8.619.8215 安卓最新版
v9.300.2184.770803 最新版
v8.707.3388.151436 安卓版
v1.994 安卓漢化版
v2.801.6944.616405 最新版
国内精品久久久久久鸭
1300000000000000!
1.3千万亿,一个令人咂舌的数字。这就是谷歌每月处理的Tokens用量。
据谷歌“宣传委员”Logan Kilpatrick透露,这一数据来自谷歌对旗下各平台的内部统计。
假如参考DeepSeek API文档中给出的标准:
1 个英文字符 ≈ 0.3 个 Token1 个中文字符 ≈ 0.6 个 Token
那么在中文世界里,1.3千万亿Tokens约2.17千万亿汉字。换算成对话量,一本《红楼梦》的字数在70-80万左右,相当于一个月内所有人和谷歌AI聊了近30亿本《红楼梦》的内容。
更可怕的是,假如按照谷歌最近几个月的增速来看,这个数字再往下恐怕……
5月份,月均处理480万亿个;7月份,月均处理980万亿个;10月份,月均处理1.3千万亿个。
而且需要注意的是,不止谷歌看重“Tokens消耗量”这一指标,OpenAI最近也首次公布了30家Tokens消耗破万亿的“大金主”。
所以,为什么这个指标重要?它背后又意味着什么?
咱们接着看——
今年已连续暴涨,扛起千万亿大旗
以谷歌为例,它在这个指标上取得的最新成绩无疑是谷歌AI实力的具象化体现。
根据谷歌CEO皮猜在今年I/O大会上公布的一张图,一年前谷歌月均处理的Tokens数量才9.7万亿,如今却已突破千万亿级大关。
并且,从大会结束到现在,根据Logan Kilpatrick(真实身份为谷歌AI Studio负责人)提供的内部数据,谷歌每月处理的Tokens用量还在连续暴涨,且暂未看到任何放缓迹象。
单看谷歌可能没感觉,那横向对比来看看呢?
根据艾伦AI研究所研究员Nathan Lambert撰写的一篇博客,目前国内外主要大厂的Tokens用量如下:
先说微软。根据微软今年公布的三季度财报,CEO纳德拉曾表示:
本季度我们处理了超过100万亿个Tokens,同比增长5倍,其中仅上个月就创下了50万亿个Tokens的记录。
据此分析,微软的Tokens处理能力还远够不上千万亿级别。而且你别忘了,微软早期就与OpenAI有过合作(负责托管OpenAI模型),起步比谷歌更早。
而现在,谷歌却在这一指标上将微软甩在了身后。
此外,像OpenAI、国内的字节跳动、百度等公司,文章指出目前这些公司均达到了日均万亿Tokens的处理量级。
不过这里要插一句,在刚刚过去的开发者日上,OpenAI公布其API调用量为每分钟60亿Tokens,这串数字换算成月度总量是260万亿Tokens。
当然这还只是API的部分,如果加上Tokens消耗量更大的ChatGPT订阅业务,这一数字还会更大,但具体是多少目前则缺少官方数据。
整体而言,仅按公开可查的确切数据来看,谷歌在“千万亿”这一级确实是独一档的存在。
当然,Tokens用量还只是谷歌AI实力的冰山一隅。
几乎同一时间,谷歌云还公布了一组最新数据,里面除了提到1.3千万亿这个数字,还表示:
超过1300万开发者使用谷歌模型进行开发;Gemini模型目前已生成2.3亿个视频和130亿张图像;使用谷歌AI概览的用户达到20亿;65%的客户已经在使用谷歌的AI产品。
Anyway,即使抛开数据不谈,想必大家也对谷歌AI今年的崛起之势感受颇为明显。
别的不说,传说中的Gemini 3应该快了(坊间传闻原计划于10月9日上线,截至发稿前未正式官宣)。
Tokens消耗量已成新的竞争指标
说完谷歌,最后回到“Tokens消耗量”这个指标本身。
为什么要看Tokens消耗量?
实际上,Token作为单位能衡量的东西很多,包括预训练语料规模、上下文长度、推理长度……甚至是商业价值。
模型预训练用了多少Token语料,代表了它的基础知识储备含量。
模型能够理解多少Token的输入和输出,反映了它的理解能力。
此外,Token还是大模型推理算力的计量单位。比如底层芯片厂商如今都会通过“每秒生成Token的数量”来证明自家产品的硬件能力。甚至如果有的模型参数未公开,也能通过它的Token生成速度来倒推模型规模(在相同硬件上即可推算)。
当然更重要的是,Token也成为大模型API的定价单位。一旦使用平台的Token数量越多,厂商能够获得的商业价值以及行业影响力自然也越多。
值得一提的是,今年年初,行业围绕Tokens消耗量还诞生了一条新的价值红线——不看融资估值独角兽,看10亿Tokens日均消耗。
作为“入门级”检验标准,10亿Tokens日均消耗背后意味着:
第一,它代表大模型应用落地新趋势,企业拥抱大模型红利,要朝着这一数字前进。
第二,它成为大模型应用落地新阶段的门槛,AI业务真正跑通了吗?需求真实存在吗?都可以此为参考系找回答。
第三,日均10亿Tokens消耗也只是大模型落地“入门级水准”,单客户百万亿、千万亿Tokens消耗是更值得期待的星辰大海。
而如今,远超日均10亿Tokens消耗,谷歌已经为所有玩家树立了新的标杆。
不知道下一个“千万亿玩家”又会是谁呢?
相关版本
多平台下载
查看所有0条评论>网友评论