6月17日訊息,MiniMax稀宇科技宣布將連續五天推出重大更新。今日第一波亮點為全球首發开源推理模型MiniMax-M1。
據官方介紹,MiniMax-M1乃全球首個开源的大規模混合架構推理模型。 MiniMax強調:M1在 productivity-focused complex scenarios 中的能力屬開源模型中頂級水平,不僅超越國內閉源模型,更逼近海外最領先的模型,且具備業界最高的性價比。
官方部落格進一步指出,憑藉兩大創新技術,MiniMax-M1的訓練過程高效得「超出預期」。該模型僅需3周時間、512塊H800 GPU便完成強化學習訓練階段,算力租賃成本低至53.47萬美元(按現行匯率約合人民幣384.1萬元),相比最初預期直接降低了一個數量級。
M1的一大亮點是支持業界最高的100萬級上下文輸入,與閉源模型中的Google Gemini 2.5 Pro持平,為DeepSeek R1的8倍,並具備業內最長的8萬Token推理輸出。
得益於我們獨創的以閃電注意力機制為主的混合架構,在處理長上下文輸入及深度推理時表現尤為高效。例如,在執行8萬Token深度推理時,僅需使用DeepSeek R1約30%的算力。此特性使得我們在訓練和推理過程中均具備顯著的算力效率優勢。此外,我們提出了更高效的強化學習算法CISPO,通過裁剪重要性採樣權重(而非傳統token更新)來提升強化學習效率。在AIME測試中,該算法比包括字節近期提出的DAPO等算法 convergence性能快一倍,顯著優於DeepSeek早期使用的GRPO。
得益於上述兩項技術創新,我們最終的強化訓練過程非常高效,超出預期。事實上,在整個強化學習階段,我們只用了512塊H800 GPU三周的時間,租賃成本僅為53.47萬美金。這比最初預期低了一個數量級。
我們發現,在軟件工程、長上下文與工具使用等面向生產力的複雜場景中,該模型展現了明顯優勢。
MiniMax-M1-40k和MiniMax-M1-80k在SWE-bench驗證基準上分別取得55.6%和56.0%的優異成績,這一結果略低於DeepSeek-R1-0528的57.6%,但顯著超越其他開源權重模型。
依托其百萬級上下文窗口,M1系列在長上下文理解任務中表現卓絕,不僅全面超越所有開源權重模型,甚至超越OpenAI o3和Claude 4 Opus,在全球排名中仅次於Gemini 2.5 Pro。
在代理工具使用場景(TAU-bench)中,MiniMax-M1-40k同樣領先所有開源權重模型,並擊敗Gemini-2.5 Pro。
值得注意的是,MiniMax-M1-80k在絕大多數測試中始終優於MiniMax-M1-40k,這充分驗證了增加計算資源的有效性。我們已將完整的技术報告和模型權重上傳至官方Hugging Face和GitHub帳戶供大家訪問。vLLM和Transformer兩個開源項目提供了各自的推理部署支持,同時我們正與SGLang合作推進部署支持。為感謝用戶 Ủ持,我們在MiniMax App和Web版本均提供無限次免費使用,並以業內最低價格提供API服務。
具體來看:
- 輸入長度在0-32k時,收費為每百万Token 0.8元
- 輸出收費為每百万Token 8元
- 輸入長度在32k-128k時,收費為每百萬Token 1.2元
- 輸出收費為每百萬Token 16元
- 輸入長度在128k-1M時,收費為每百萬Token 2.4元
- 輸出收費為每百萬Token 24元
前兩種模式均比DeepSeek-R1更具性價比,而後一種模式更是DeepSeek模型所不支持的。除了M1之外,接下來連續四個工作日,我們還準備了一些更新內容供大家期待。