近期,科技界傳來了一則令人矚目的消息。據知名科技媒體marktechpost報道,英偉達公司于近日正式推出了其最新研發的大型語言模型——Llama-3.1-Nemotron-Ultra-253B-v1,業界簡稱為Nemotron Ultra。這款模型擁有2530億個參數,在推理能力、架構效率以及生產準備度方面實現了顯著的提升,為AI技術的發展注入了新的活力。
隨著AI技術在數字基礎設施中的廣泛應用,企業和開發者面臨著計算成本、性能與擴展性之間的平衡挑戰。大型語言模型(LLM)雖然能夠顯著提升自然語言理解和對話能力,但其龐大的規模往往導致效率低下,難以進行大規模部署。針對這一難題,Nemotron Ultra應運而生。
Nemotron Ultra基于meta的Llama-3.1-405B-Instruct架構,專為滿足商業和企業需求而設計。它能夠支持從工具使用到多輪復雜指令執行等多種任務,為企業提供了強大的支持。在架構上,該模型采用了僅解碼器的密集Transformer結構,并通過神經架構搜索(NAS)算法進行了優化。其創新之處在于引入了跳躍注意力機制,在部分層中省略了注意力模塊或替換為簡單的線性層,從而提高了模型的效率。
Nemotron Ultra還采用了前饋網絡(FFN)融合技術,將多層FFN合并為更寬但更少的層,進一步縮短了推理時間,同時保持了卓越的性能。該模型支持高達128K token的上下文窗口,能夠處理長篇文本,非常適合用于高級RAG系統和多文檔分析。
在部署效率方面,Nemotron Ultra同樣表現出色。它能夠在單個8xH100節點上運行推理,顯著降低了數據中心的成本,提高了企業開發者的可及性。這一突破性的進展使得大型語言模型在商業應用中的部署變得更加高效和便捷。
為了進一步優化模型性能,英偉達還采取了多階段后訓練策略。這包括在代碼生成、數學、對話和工具調用等任務上進行監督微調,以及使用群體相對策略優化(GRPO)算法進行強化學習(RL)。這些措施確保了Nemotron Ultra在基準測試中表現出色,并且能夠與人類交互偏好高度契合,為用戶帶來更加自然、流暢的體驗。