777精品久无码人妻蜜桃,国产日本精品视频在线观看 ,国产亚洲99久久精品熟女av,brazzersvideosex欧美最新版,人人爽人人人爽人人爽

2025全球時空智能大會
5月21-22日 北京
開幕在即!WGDC25全球時空智能大會完整日程公布
即刻注冊  鎖定席位
分享
Scan me 分享到微信

騰訊發(fā)布開源MoE大語言模型Hunyuan-large,總參數(shù)398B為業(yè)內最大

該模型在技術創(chuàng)新上可實現(xiàn)高質量合成數(shù)據,通過使用合成數(shù)據增強訓練,有效應對自然數(shù)據的不足。

11月5日消息,騰訊發(fā)布開源MoE大語言模型Hunyuan-large,總參數(shù)398B為業(yè)內最大,激活參數(shù)量52B。公開測評結果顯示,騰訊混元Large在CMMLU、MMLU、CEval、MATH等多學科綜合評測集以及中英文NLP任務、代碼和數(shù)學等9大維度全面領先,超過Llama3.1、Mixtral等一流的開源大模型。據了解,該模型在技術創(chuàng)新上可實現(xiàn)高質量合成數(shù)據,通過使用合成數(shù)據增強訓練,有效應對自然數(shù)據的不足。在上下文處理能力方面,預訓練模型支持高達256K的文本序列,顯著增強了處理長上下文任務的能力。  

同時,騰訊混元宣布,為填補行業(yè)真實長文評測集不足,騰訊混元即將開源企鵝卷軸評測集助力業(yè)界應用研究。自研企鵝卷軸(PenguinScrolls)基于公開金融、法律、學術論文等多種自然長文本,長度范圍達1K-128K,覆蓋各種深度閱讀理解、長文推理任務。

喜歡您正在閱讀的內容嗎?歡迎免費訂閱泰伯每周精選電郵。 立即訂閱

參與評論

【登錄后才能評論哦!點擊

  • {{item.username}}

    {{item.content}}

    {{item.created_at}}
    {{item.support}}
    回復{{item.replynum}}
    {{child.username}} 回復 {{child.to_username}}:{{child.content}}

更多精選文章推薦