螞蟻百靈大模型家族迎來重要成員——Ling-1T。這款擁有萬億參數(shù)的通用語言模型由螞蟻集團自主研發(fā),作為Ling 2.0系列的首款旗艦產(chǎn)品,其規(guī)模與性能均創(chuàng)下團隊歷史新高。該模型在復(fù)雜推理任務(wù)中展現(xiàn)出卓越能力,在有限輸出Token條件下,于多項基準(zhǔn)測試中刷新最佳成績,尤其在高效思考與精確推理的平衡方面表現(xiàn)突出。
在競賽數(shù)學(xué)領(lǐng)域,Ling-1T的表現(xiàn)尤為亮眼。以美國數(shù)學(xué)邀請賽25題(AIME 25)為例,該模型僅消耗平均4000余Token即達到70.42%的準(zhǔn)確率,超越同期測試的Gemini-2.5-Pro(消耗5000+Token,準(zhǔn)確率70.10%)。這種以更少資源實現(xiàn)更高精度的特性,使其在推理效率與準(zhǔn)確率的綜合評估中占據(jù)優(yōu)勢,相關(guān)成果已推動該領(lǐng)域帕累托前沿的拓展。
技術(shù)架構(gòu)方面,Ling-1T延續(xù)了Ling 2.0的核心設(shè)計,依托超過20萬億Token的高質(zhì)量語料庫完成預(yù)訓(xùn)練,支持最長128K的上下文窗口。通過"中訓(xùn)練+后訓(xùn)練"的演進式思維鏈(Evo-CoT)技術(shù),模型在復(fù)雜邏輯推導(dǎo)和精準(zhǔn)答案生成方面獲得顯著提升。特別值得關(guān)注的是,該模型采用FP8混合精度訓(xùn)練方案,成為當(dāng)前已知規(guī)模最大的FP8基座模型,這項創(chuàng)新使顯存占用降低、并行策略更靈活,并實現(xiàn)15%以上的端到端訓(xùn)練加速。
在強化學(xué)習(xí)階段,研發(fā)團隊提出LPO(Linguistics-Unit Policy Optimization)策略優(yōu)化算法,以"句子"為最小優(yōu)化單元。這種設(shè)計既避免了詞元級處理的碎片化問題,又克服了序列級優(yōu)化的籠統(tǒng)性,使獎勵信號與模型輸出在語義層面實現(xiàn)精準(zhǔn)匹配。同時,團隊構(gòu)建的"語法-功能-美學(xué)"混合獎勵機制,在確保代碼正確性的基礎(chǔ)上,顯著提升了模型對視覺美學(xué)的理解能力。
在前端開發(fā)能力評估中,Ling-1T于ArtifactsBench基準(zhǔn)測試取得59.31分,雖略低于Gemini-2.5-Pro-lowthink的60.28分,但在開源模型中穩(wěn)居首位。該模型在代碼生成、軟件開發(fā)、專業(yè)數(shù)學(xué)等領(lǐng)域同樣表現(xiàn)優(yōu)異,多項指標(biāo)刷新開源社區(qū)紀錄。目前,開發(fā)者可通過Hugging Face平臺及螞蟻百寶箱等渠道體驗Ling-1T的完整功能。
據(jù)悉,螞蟻百靈團隊還在同步推進深度思考大模型Ring-1T的研發(fā),其preview版本已于9月30日開源。這款聚焦復(fù)雜推理的新模型,將與Ling-1T形成能力互補,共同構(gòu)建更完整的AI技術(shù)矩陣。















