界面新聞?dòng)浾?| 肖芳
界面新聞編輯 | 文姝琪
豆包系列大模型價(jià)格再次大幅降低,但定價(jià)策略有了很多新變化。
在火山引擎Force原動(dòng)力大會(huì)上,火山引擎總裁譚待對(duì)外發(fā)布了豆包大模型1.6、視頻生成模型Seedance 1.0 pro等多款新模型。
其中,豆包大模型1.6首創(chuàng)按“輸入長(zhǎng)度”區(qū)間定價(jià),深度思考、多模態(tài)能力與基礎(chǔ)語(yǔ)言模型統(tǒng)一價(jià)格的模式。在企業(yè)使用量最大的0-32K輸入?yún)^(qū)間,豆包1.6的輸入價(jià)格為0.8元/百萬(wàn)tokens,輸出8元/百萬(wàn)tokens,成本比豆包1.5下降了63%。這意味著,企業(yè)只需要原來(lái)三分之一左右價(jià)格,就能獲得一個(gè)能力更強(qiáng)、原生多模態(tài)的新模型。
Seedance 1.0 pro的價(jià)格是每千tokens1分5厘,相當(dāng)于每生成一條5秒的1080P視頻只需3.67元,這個(gè)價(jià)格比市場(chǎng)上多款視頻生成的價(jià)格便宜了70%左右。以此計(jì)算,企業(yè)花費(fèi)1萬(wàn)元可以生成2700條5秒的1080P視頻,這個(gè)價(jià)格也已大幅低于人工制作的成本。
一年之前,豆包大模型在行業(yè)中率先降價(jià),把Token的定價(jià)降低了一個(gè)數(shù)量級(jí),并帶動(dòng)大模型行業(yè)出現(xiàn)了降價(jià)潮。談及兩次降價(jià),譚待表示,去年豆包大模型1.0在模型結(jié)構(gòu)和工程上都做了大量?jī)?yōu)化,把價(jià)格降低了99%以上。這一次,豆包大模型在絕大部分企業(yè)用的32K范圍的成本進(jìn)行了定向優(yōu)化,同時(shí)也在商業(yè)模式上進(jìn)行了創(chuàng)新。
成本定向優(yōu)化如何實(shí)現(xiàn)?
豆包大模型改變定價(jià)策略的的出發(fā)點(diǎn)是,用戶使用同一個(gè)尺寸和參數(shù)的模型,成本和是否開(kāi)啟深度思考、是否使用圖像理解的關(guān)系并不大,而主要影響成本的因素就是上下文窗口。
上下文窗口是模型在生成回答或理解用戶輸入時(shí),能關(guān)聯(lián)的歷史對(duì)話記錄、前文內(nèi)容的最大長(zhǎng)度。具體來(lái)說(shuō),它決定了模型在生成或理解文本時(shí),可以同時(shí)看到和利用多少個(gè)詞或字符的信息。比如,輸入10個(gè)詞和輸入1000個(gè)詞,處理的成本差很多。
現(xiàn)實(shí)中,大多數(shù)企業(yè)的輸入其實(shí)長(zhǎng)度是有分布的。大部分輸入有一個(gè)相對(duì)集中的分布區(qū)間,但偶爾也會(huì)出現(xiàn)一個(gè)更長(zhǎng)的輸入。如果不同長(zhǎng)度的任務(wù)直接混在一起處理,大模型內(nèi)部會(huì)因?yàn)槿蝿?wù)長(zhǎng)度不同而“卡殼”或“等待”,效率較低,就像一輛快車要等慢車,浪費(fèi)了速度。
火山引擎給出的策略是PD分離,即把不同長(zhǎng)度的請(qǐng)求分組、分區(qū)調(diào)度,再通過(guò)集中調(diào)度,把同一長(zhǎng)度的任務(wù)一起分配給模型,方便并行處理,提升效率。這個(gè)原理和快遞公司打包物品類似,如果把所有尺寸的物品都混一起打包,就會(huì)浪費(fèi)空間。如果分類打包,就會(huì)節(jié)省很多材料和空間。
豆包大模型1.6把企業(yè)使用量最大的0-32K輸入?yún)^(qū)間進(jìn)行了大幅降價(jià),但在這個(gè)輸入區(qū)間之外的長(zhǎng)度,用戶就要付出更高的成本。根據(jù)譚待在發(fā)布會(huì)現(xiàn)場(chǎng)透露的信息,在輸入?yún)^(qū)間32K-128K的范圍內(nèi),豆包1.6的價(jià)格是輸入1.2元每百萬(wàn)tokens,輸出16元每百萬(wàn)tokens;在輸入?yún)^(qū)間128K-256K的范圍內(nèi),豆包1.6的價(jià)格是輸入2.4元,輸出24元。
上下文窗口成本定向優(yōu)化和核心思路是將“粗放式調(diào)度”轉(zhuǎn)向“精細(xì)化運(yùn)營(yíng)”,這不僅節(jié)省算力,也提升了整個(gè)大模型服務(wù)體系的效率與可持續(xù)性。
爭(zhēng)奪Agent規(guī)模化應(yīng)用帶來(lái)的機(jī)會(huì)
去年,豆包大模型大幅降價(jià)是為了為大模型在企業(yè)中的落地應(yīng)用掃清成本障礙。
從調(diào)用量來(lái)看,豆包大模型已基本實(shí)現(xiàn)這一目標(biāo)。根據(jù)火山引擎公布的數(shù)據(jù),豆包大模型日均tokens使用量超過(guò)16.4萬(wàn)億,較去年5月首次發(fā)布時(shí)增長(zhǎng)137倍。
今年,豆包大模型再次降價(jià),是為了爭(zhēng)奪Agent規(guī)?;瘧?yīng)用給云服務(wù)帶來(lái)的新機(jī)會(huì)。由于Agent每次執(zhí)行任務(wù)都會(huì)消耗大量tokens,模型使用成本也要降下來(lái),才能推動(dòng)Agent的規(guī)?;瘧?yīng)用。
譚待接受界面新聞等媒體采訪時(shí)表示,火山引擎需要先把云基礎(chǔ)設(shè)施做好,還要把圍繞Agent開(kāi)發(fā)的平臺(tái)和工具做好。
他透露,火山引擎今年設(shè)定了非常激進(jìn)的目標(biāo)。“大家對(duì)AI的需求是很旺盛的,但也非常困惑怎么選擇好的模型、怎么把模型用好。我們把自己的產(chǎn)品做扎實(shí),把成本做低,把方案做好,把標(biāo)桿客戶做扎實(shí),業(yè)務(wù)目標(biāo)自然就可以完成。”
激進(jìn)的目標(biāo)的背后,是火山引擎迫切需要大模型帶來(lái)的增量尋求市場(chǎng)份額的提升。
火山引擎主要瞄準(zhǔn)兩項(xiàng)需求,一個(gè)是來(lái)自于大模型訓(xùn)練和推理對(duì)云服務(wù)產(chǎn)生的新需求,以及企業(yè)在尋求AI創(chuàng)新和數(shù)字化轉(zhuǎn)型上產(chǎn)生的新需求。
一年過(guò)去,火山引擎在市場(chǎng)份額上已經(jīng)獲得了一些成效。IDC報(bào)告顯示,豆包大模型在中國(guó)公有云大模型市場(chǎng)份額排名第一,占比高達(dá)46.4%。
今年被認(rèn)為是Agent的元年,火山引擎當(dāng)然也不會(huì)放過(guò)這個(gè)機(jī)會(huì)。
據(jù)界面新聞了解,AI coding是字節(jié)跳動(dòng)為數(shù)不多自己下場(chǎng)做的應(yīng)用。今年年初,字節(jié)跳動(dòng)已經(jīng)發(fā)布AI編程產(chǎn)品TRAE,面向中英文開(kāi)發(fā)者社區(qū),與Cursor、GitHub Copilot等同類工具展開(kāi)競(jìng)爭(zhēng)。它兼具生成式開(kāi)發(fā)與智能協(xié)作,適合項(xiàng)目啟動(dòng)、原型構(gòu)建,也為長(zhǎng)期開(kāi)發(fā)流程增效。
最新發(fā)布的豆包大模型1.6在AI coding能力方面取得了較為明顯的進(jìn)步。其支持256K tokens上下文,處理大型項(xiàng)目、多文件依賴、長(zhǎng)邏輯鏈等場(chǎng)景的能力更強(qiáng),可進(jìn)行瀏覽器模擬點(diǎn)擊、表格填寫等解析界面操作。
字節(jié)跳動(dòng)技術(shù)副總裁洪定坤透露,豆包1.6模型已經(jīng)接入TRAE內(nèi)測(cè),新模型將很快推送給用戶。在字節(jié)內(nèi)部,超過(guò)80%的工程師在使用TRAE輔助開(kāi)發(fā)。TRAE的整體月活用戶已經(jīng)超過(guò)了100萬(wàn)。
而對(duì)于其他Agent應(yīng)用,火山引擎其主要寄希望于通過(guò)外部合作伙伴來(lái)完成。譚待表示,PC時(shí)代主體是Web,移動(dòng)時(shí)代是APP,AI時(shí)代則是Agent。“火山引擎希望和去年一樣,通過(guò)模型的大幅降價(jià)再一次促進(jìn)Agent AI的普及。”