據(jù)豆包大模型團(tuán)隊(duì)消息,字節(jié)跳動(dòng)豆包大模型Foundation團(tuán)隊(duì)近期提出UltraMem,一種同樣將計(jì)算和參數(shù)解耦的稀疏模型架構(gòu),在保證模型效果的前提下解決了推理的訪存問題。據(jù)介紹,該架構(gòu)有效解決了MoE推理時(shí)高額的訪存問題,推理速度較MoE架構(gòu)提升2-6倍,推理成本最高可降低83%。
1月22日,豆包大模型1.5Pro版本正式發(fā)布。團(tuán)隊(duì)稱模型訓(xùn)練過程中未使用任何其他模型生成的數(shù)據(jù)。目前,Doubao-1.5-pro已在豆包APP灰度上線,開發(fā)者也可在火山引擎直接調(diào)用API。