11月5日消息,騰訊騰訊今日宣布推出業(yè)界參數(shù)規(guī)模最大、發(fā)布效果最好的開源開源MoE大語言模型Hunyuan-Large。
Huanyuan-large模型的模型總參數(shù)量為389B、激活參數(shù)為52B、騰訊訓(xùn)練token數(shù)量為7T、發(fā)布最大上下文長度為256K、開源詞表大小為12.8w。模型
在技術(shù)創(chuàng)新方面,騰訊Hunyuan-large通過高質(zhì)量的發(fā)布合成數(shù)據(jù)來增強(qiáng)模型訓(xùn)練,彌補(bǔ)了自然數(shù)據(jù)的開源不足。
其中,模型該模型預(yù)訓(xùn)練支持處理高達(dá)256K的騰訊文本序列,大幅提升了長文本上下文的發(fā)布處理能力,能夠更高效地完成長文本任務(wù)。開源
據(jù)了解,Hunyuan-large在CMMLU、MMLU、CEva1、MATH等多學(xué)科綜合評測集上表現(xiàn)優(yōu)異,在中英文自然語言處理、代碼生成、數(shù)學(xué)運算等9大能力維度中全面領(lǐng)先,超越了Llama3.1和Mixtral等一流開源模型。
此外,騰訊還宣布將推出自研的長文評測集“企鵝卷軸(PenguinScrolls)”,以填補(bǔ)行業(yè)在真實長文評測集上的空白。
企鵝卷軸基于公開的金融、法律、學(xué)術(shù)論文等長文本構(gòu)建,文本長度從1K到128K不等,覆蓋深度閱讀理解和長文推理任務(wù)。
頂: 8575踩: 78
騰訊發(fā)布開源MoE大語言模型Hunyuan
人參與 | 時間:2024-12-23 01:52:23
評論專區(qū)
相關(guān)文章
- 被噴了一屆的4am 結(jié)果東部第一 逮捕t1兩把 可以了
- 戰(zhàn)神!德里赫特本場:貢獻(xiàn)3解圍3搶斷,頭部受傷但4次爭頂成功2次
- 費迪南德:阿莫林改變葡體風(fēng)格,他的個性和個人魅力不同于滕哈赫
- 電影《全員嫌疑人》今日首播:小沈陽秦海璐深陷層層反轉(zhuǎn)案中案
- T1回旋鏢啦,自食惡果
- 30輪34球!第81分鐘武磊破門本場雙響+獨造5球,海港5
- 本輪蓉城主場鳳凰山共計40317人,退錢哥:感覺現(xiàn)場不止這么多
- 手球犯規(guī),明斯是首位在歐冠首秀送點的英格蘭球員
- RTX 5070 Ti將配16GB GDDR7顯存、精簡版GB203
- 身體無礙!滕哈赫確認(rèn):烏加特已為出場做好了準(zhǔn)備