当前位置:首页 → 电脑软件 → 韩国瑜当选台新任立法机构负责人 → 2026世界杯投注宝典 v7.755.3478.334608 PC版
v3.577.633 安卓免費版
v9.134.7040.226013 IOS版
v7.181.4693.113008 安卓最新版
v4.859.6487.691800 PC版
v9.665.725.906186 安卓漢化版
v8.238.5056.76736 IOS版
v1.415 安卓版
v4.30 安卓最新版
v8.430.6304.844838 安卓最新版
v3.879.6244.239517 安卓免費版
v6.979 安卓免費版
v7.262 IOS版
v2.521.658.88315 安卓最新版
v5.274 最新版
v7.75.9055.470935 PC版
v8.789.9687 安卓最新版
v9.368.7598.183654 安卓漢化版
v9.321.9230.769430 最新版
v2.757.2667 安卓最新版
v6.497 IOS版
v5.239.4193 安卓版
v5.776.1799.802213 安卓免費版
v3.828.4047 安卓免費版
v6.887.3150.692932 PC版
v1.320 安卓版
v1.164.689.230699 PC版
v1.749.7126.391012 IOS版
v5.834.6021 安卓最新版
v3.798.7991 安卓最新版
v8.698 最新版
v5.720.2928.76418 IOS版
v3.602.6145 安卓漢化版
v9.251 安卓免費版
v5.993.8396 PC版
v8.591 最新版
v8.74.5270 安卓最新版
v7.757.4297.186071 安卓漢化版
v6.634.7399 安卓漢化版
v4.115 最新版
v3.364 安卓漢化版
v4.153.8801.135973 安卓最新版
v7.820.2692 安卓漢化版
v7.566.3597 安卓免費版
v9.646 安卓版
v2.232 安卓版
v5.738.890 最新版
v2.715 安卓最新版
v4.249.106.555731 最新版
v5.460.3542.995882 安卓版
v8.652.1690 安卓最新版
v1.254 PC版
v1.362 安卓免費版
v1.439.7732.242204 PC版
v6.672.8134 安卓版
v6.38 安卓免費版
v6.404 安卓最新版
v8.667.9512.467420 安卓最新版
v4.605.8069 安卓版
v4.746 安卓最新版
v3.854.108.893480 IOS版
v8.898.9377.366881 安卓最新版
v2.748.4252.517137 安卓版
v1.984.1832 IOS版
v9.230.9149.501789 安卓免費版
v5.463.7300 IOS版
v9.662.6728 IOS版
v9.591 IOS版
v1.11.4014 IOS版
v9.671 安卓免費版
v9.600 安卓最新版
v2.427.8499.665037 安卓漢化版
v1.563.3881 IOS版
v6.237.6636 安卓最新版
v6.170.9342.360393 安卓最新版
v2.16.5722 安卓最新版
v6.596.3982 安卓漢化版
v9.398.4593.705059 IOS版
v3.961 安卓版
v1.868 安卓最新版
v4.212 IOS版
2026世界杯投注宝典
火山引擎披露最新成绩:豆包大模型日均Tokens(大模型文本单位)调用量已突破30万亿。
10月16日,火山引擎发布豆包大模型系列更新,包括豆包大模型1.6原生支持多种思考长度,并推出了豆包大模型1.6 lite、豆包语音合成模型2.0、豆包声音复刻模型2.0等全新模型。
澎湃新闻记者获悉,截至9月底,豆包大模型日均Tokens调用量已突破30万亿,相比今年5月底增长超80%。在企业市场,IDC报告显示,今年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居中国第一。
“大模型创新和服务是AI市场未来最大变量,我们先把产品做好,生态做好,才能考虑市场未来的发展。”在接受澎湃新闻等媒体采访时,火山引擎CEO谭待表示。
国内首个“分档调节思考长度”的模型
此次升级中,豆包大模型1.6成为国内首个原生支持“分档调节思考长度”的模型,提供Minimal、Low、Medium、High四档选择,可适配企业不同场景需求。
据实测,选择低思考长度档位时,模型总输出Tokens较旧版下降77.5%、思考时间缩短84.6%,且效果保持不变——这一优化直接解决了此前深度思考模式“使用率仅18%”的痛点。
以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包1.6模型总输出tokens下降77.5%、思考时间下降84.6%,模型效果保持不变。
此外,火山引擎推出豆包大模型1.6 lite,相比旗舰版本更轻量、推理速度更快。效果上,该模型超越豆包大模型1.5 pro,在企业级场景测评中较豆包1.5 pro提升14%;在使用量最大的0-32k输入区间里,综合使用成本较豆包1.5 pro降低53.3%。
火山引擎总裁谭待告诉澎湃新闻记者,当前全球AI大模型正沿三大方向演进:深度思考与多模态能力融合、音视频模型达生产级水平、企业级复杂Agent走向成熟。
“现在Tokens增长趋势还远远没有结束,未来可能还能涨几百倍。”谭待坦言,在他看来,“Tokens调用量是衡量企业AI转型的关键指标——若日均Tokens不足10亿,很难说真正在做AI转型”,而火山引擎Tokens增长的核心逻辑是“为客户创造更大价值”:企业愿付费使用,本质是Tokens能带来“硬件好卖、效率提升、成本降低”等实际增益。
未来增长趋势:生成类模型
“生成类模型增长非常快,生图生视频用得越来越多,大家平时作为用户,豆包上也会用到这样的能力。”谭待告诉澎湃新闻记者,另一个增长点是AI代码(coding),在国外已经用得非常多,国内受限于模型的限制、能力的限制,还没有完全爆发。
谭待还透露,在过去4年,火山引擎每年营收目标都超预期完成,今年也是如此,“我们应该更早意识到AI变化意味着什么,我们做好布局。把这件事情做好,结果就水到渠成。对我们来说,AI大幅降低企业和开发者使用的门槛。”
当天,面对“模型太多选不准”的行业难题,火山引擎发布国内首个模型智能选择方案——智能模型路由(Smart Model Router),即日起在火山方舟平台开放使用,支持“平衡模式”“效果优先模式”“成本优先模式”三种选择,可自动匹配最优模型,实现“效果与成本双优”。
实测数据显示,在效果优先模式下,路由至DeepSeek模型时效果较直接使用DeepSeek-V3.1提升14%;成本优先模式下,在保持DeepSeek-V3.1相似效果的前提下,综合成本最高下降超70%。值得注意的是,该路由不仅支持豆包全系模型,还兼容DeepSeek、Qwen、Kimi等主流开源模型,且路由本身不收费,仅按最终调用的模型计费。
相关版本
多平台下载
查看所有0条评论>网友评论