《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > MiniMax推出全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型

MiniMax推出全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型

2025-06-18
來源:IT之家

6 月 17 日消息,MiniMax 稀宇科技宣布將連續(xù)五天發(fā)布重要更新。今天第一彈是開源首個推理模型 MiniMax-M1。

000.png

根據(jù)官方介紹,MiniMax-M1 是世界上第一個開源的大規(guī)模混合架構(gòu)的推理模型。MiniMax 表示:M1 在面向生產(chǎn)力的復(fù)雜場景中能力是開源模型中的最好一檔,超過國內(nèi)的閉源模型,接近海外的最領(lǐng)先模型,同時又有業(yè)內(nèi)最高的性價比。

官方博客還提到,基于兩大技術(shù)創(chuàng)新,MiniMax-M1 訓(xùn)練過程高效得“超出預(yù)期”,只用了 3 周時間、512 塊 H800 GPU 就完成強(qiáng)化學(xué)習(xí)訓(xùn)練階段,算力租賃成本僅 53.47 萬美元(IT之家注:現(xiàn)匯率約合 384.1 萬元人民幣),相比一開始的預(yù)期直接降低了一個數(shù)量級。

M1 有一個顯著的優(yōu)勢是支持目前業(yè)內(nèi)最高的 100 萬上下文的輸入,跟閉源模型里面的 Google Gemini 2.5 Pro 一樣,是 DeepSeek R1 的 8 倍,以及業(yè)內(nèi)最長的 8 萬 Token 的推理輸出。

000.png

這主要得益于我們獨創(chuàng)的以閃電注意力機(jī)制為主的混合架構(gòu),從而在計算長的上下文輸入以及深度推理的時候顯著高效。例如,在用 8 萬 Token 深度推理的時候,只需要使用 DeepSeek R1 約 30% 的算力。這個特性使得我們在訓(xùn)練和推理的時候都有很大的算力效率優(yōu)勢。除此之外,我們提出了更快的強(qiáng)化學(xué)習(xí)算法 CISPO,通過裁剪重要性采樣權(quán)重(而非傳統(tǒng) token 更新)提升強(qiáng)化學(xué)習(xí)效率。在 AIME 的實驗中,我們發(fā)現(xiàn)這比包括字節(jié)近期提出的 DAPO 等強(qiáng)化學(xué)習(xí)算法收斂性能快了一倍,顯著的優(yōu)于 DeepSeek 早期使用的 GRPO。

000.png

得益于上述兩個技術(shù)創(chuàng)新,我們最終強(qiáng)化訓(xùn)練過程非常高效,超出預(yù)期。實際上整個強(qiáng)化學(xué)習(xí)階段只用到 512 塊 H800 三周的時間,租賃成本只有 53.47 萬美金。這比一開始的預(yù)期少了一個數(shù)量級。我們在業(yè)內(nèi)主流的 17 個評測集上詳細(xì)評測了 M1,具體的結(jié)果如下:

000.png

我們發(fā)現(xiàn)在軟件工程、長上下文與工具使用等面向生產(chǎn)力的復(fù)雜場景中,我們的模型具備顯著優(yōu)勢。

MiniMax-M1-40k 和 MiniMax-M1-80k 在 SWE-bench 驗證基準(zhǔn)上分別取得 55.6% 和 56.0% 的優(yōu)異成績,這一成績略遜于 DeepSeek-R1-0528 的 57.6%,但顯著超越其他開源權(quán)重模型。

依托其百萬級上下文窗口,M1 系列在長上下文理解任務(wù)中表現(xiàn)卓越,不僅全面超越所有開源權(quán)重模型,甚至超越 OpenAI o3 和 Claude 4 Opus,全球排名第二,僅以微弱差距落后于 Gemini 2.5 Pro。

在代理工具使用場景(TAU-bench)中,MiniMax-M1-40k 同樣領(lǐng)跑所有開源權(quán)重模型,并戰(zhàn)勝 Gemini-2.5 Pro。

值得注意的是,MiniMax-M1-80k 在大多數(shù)基準(zhǔn)測試中始終優(yōu)于 MiniMax-M1-40k,這充分驗證了擴(kuò)展測試時計算資源的有效性。詳細(xì)的技術(shù)報告,完整的模型權(quán)重可以在我們的官方 Hugging Face 和 GitHub 賬號下訪問。vLLM 和 Transformer 兩個開源項目提供了各自的推理部署支持,我們也正在和 SGLang 合作推進(jìn)部署支持。因為相對高效的訓(xùn)練和推理算力使用,我們在 MiniMax App 和 Web 上都保持不限量免費使用,并以業(yè)內(nèi)最低的價格在官網(wǎng)提供 API。在 0-32k 的輸入長度的時候,輸入 0.8 元 / 百萬 token,輸出 8 元 / 百萬 token;在 32k-128k 的輸入長度的時候,輸入 1.2 元 / 百萬 token,輸出 16 元 / 百萬 token;在最長的 128k-1M 的輸入長度的時候,輸入 2.4 元 / 百萬 token,輸出 24 元 / 百萬 token。前面兩種模式都比 DeepSeek-R1 性價比更高,后面一種模式 DeepSeek 模型不支持。除了 M1 之外,接下來連續(xù)四個工作日,我們還準(zhǔn)備了一些更新帶給大家,敬請期待。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。