火山引擎披露最新成績:豆包大模型日均Tokens(大模型文本單位)調(diào)用量已突破30萬億。
10月16日,火山引擎發(fā)布豆包大模型系列更新,包括豆包大模型1.6原生支持多種思考長度,并推出了豆包大模型1.6 lite、豆包語音合成模型2.0、豆包聲音復(fù)刻模型2.0等全新模型。
澎湃新聞記者獲悉,截至9月底,豆包大模型日均Tokens調(diào)用量已突破30萬億,相比今年5月底增長超80%。在企業(yè)市場,IDC報告顯示,今年上半年中國公有云大模型服務(wù)市場,火山引擎以49.2%的份額占比位居中國第一。
“大模型創(chuàng)新和服務(wù)是AI市場未來最大變量,我們先把產(chǎn)品做好,生態(tài)做好,才能考慮市場未來的發(fā)展。”在接受澎湃新聞等媒體采訪時,火山引擎CEO譚待表示。
國內(nèi)首個“分檔調(diào)節(jié)思考長度”的模型
此次升級中,豆包大模型1.6成為國內(nèi)首個原生支持“分檔調(diào)節(jié)思考長度”的模型,提供Minimal、Low、Medium、High四檔選擇,可適配企業(yè)不同場景需求。
據(jù)實測,選擇低思考長度檔位時,模型總輸出Tokens較舊版下降77.5%、思考時間縮短84.6%,且效果保持不變——這一優(yōu)化直接解決了此前深度思考模式“使用率僅18%”的痛點。
以低思考長度為例,相比模型升級之前的單一思考模式,升級后的豆包1.6模型總輸出tokens下降77.5%、思考時間下降84.6%,模型效果保持不變。
此外,火山引擎推出豆包大模型1.6 lite,相比旗艦版本更輕量、推理速度更快。效果上,該模型超越豆包大模型1.5 pro,在企業(yè)級場景測評中較豆包1.5 pro提升14%;在使用量最大的0-32k輸入?yún)^(qū)間里,綜合使用成本較豆包1.5 pro降低53.3%。
火山引擎總裁譚待告訴澎湃新聞記者,當前全球AI大模型正沿三大方向演進:深度思考與多模態(tài)能力融合、音視頻模型達生產(chǎn)級水平、企業(yè)級復(fù)雜Agent走向成熟。
“現(xiàn)在Tokens增長趨勢還遠遠沒有結(jié)束,未來可能還能漲幾百倍。”譚待坦言,在他看來,“Tokens調(diào)用量是衡量企業(yè)AI轉(zhuǎn)型的關(guān)鍵指標——若日均Tokens不足10億,很難說真正在做AI轉(zhuǎn)型”,而火山引擎Tokens增長的核心邏輯是“為客戶創(chuàng)造更大價值”:企業(yè)愿付費使用,本質(zhì)是Tokens能帶來“硬件好賣、效率提升、成本降低”等實際增益。
未來增長趨勢:生成類模型
“生成類模型增長非常快,生圖生視頻用得越來越多,大家平時作為用戶,豆包上也會用到這樣的能力。”譚待告訴澎湃新聞記者,另一個增長點是AI代碼(coding),在國外已經(jīng)用得非常多,國內(nèi)受限于模型的限制、能力的限制,還沒有完全爆發(fā)。
譚待還透露,在過去4年,火山引擎每年營收目標都超預(yù)期完成,今年也是如此,“我們應(yīng)該更早意識到AI變化意味著什么,我們做好布局。把這件事情做好,結(jié)果就水到渠成。對我們來說,AI大幅降低企業(yè)和開發(fā)者使用的門檻。”
當天,面對“模型太多選不準”的行業(yè)難題,火山引擎發(fā)布國內(nèi)首個模型智能選擇方案——智能模型路由(Smart Model Router),即日起在火山方舟平臺開放使用,支持“平衡模式”“效果優(yōu)先模式”“成本優(yōu)先模式”三種選擇,可自動匹配最優(yōu)模型,實現(xiàn)“效果與成本雙優(yōu)”。
實測數(shù)據(jù)顯示,在效果優(yōu)先模式下,路由至DeepSeek模型時效果較直接使用DeepSeek-V3.1提升14%;成本優(yōu)先模式下,在保持DeepSeek-V3.1相似效果的前提下,綜合成本最高下降超70%。值得注意的是,該路由不僅支持豆包全系模型,還兼容DeepSeek、Qwen、Kimi等主流開源模型,且路由本身不收費,僅按最終調(diào)用的模型計費。