繼 DeepSeek 成為 AI 界話題之後,上海人工智能公司 MiniMax 最近開源推理模型 M1,聲稱以僅 53.47 萬美元(約 HK$417 萬)的訓練成本,在性能上挑戰 OpenAI、Anthropic、Google 和中國競爭對手 DeepSeek。該模型採用 Apache 2.0 開源授權,企業可免費商用和修改。
MiniMax 表示僅租用數據中心運算資源 3 週時間,使用 512 片 Nvidia H800 晶片訓練 M1 模型。這一成本較業界估計 ChatGPT-4o 超過 1 億美元的訓練費用低近 200 倍,令藍籌投資者和科技巨頭股東感到震驚。他們開發的 Lightning Attention 機制和改良強化學習算法 CISPO,令 M1 在處理 8 萬個 Token 深度推理時,僅需 DeepSeek R1 約 30% 的運算能力。模型包含 4560 億參數,每個 Token 啟用 459 億參數。
Day 1/5 of #MiniMaxWeek: We’re open-sourcing MiniMax-M1, our latest LLM — setting new standards in long-context reasoning.
– World’s longest context window: 1M-token input, 80k-token output
– State-of-the-art agentic use among open-source models
– RL at unmatched efficiency:… pic.twitter.com/bGfDlZA54n— MiniMax (official) (@MiniMax__AI) June 16, 2025
M1 具備 100 萬 Token 輸入上下文窗口和最多 8 萬 Token 輸出能力,是目前最具擴展性的長文本推理模型之一。相比之下,OpenAI GPT-4o 上下文窗口僅為 12.8 萬 Token,OpenAI o3 和 Anthropic Claude Opus 4 約為 20 萬 Token 。100 萬 Token 相當於約 7 至 8 本書籍或 1 小時影片內容,讓模型能處理小型圖書系列規模的資訊交換。Google Gemini 2.5 Pro 同樣提供 100 萬 Token 上下文窗口,但正開發 200 萬 Token 版本。
MiniMax 公布的基準測試顯示,M1 在多項評測中與 OpenAI o3、Gemini 2.5 Pro、Claude 4 Opus、DeepSeek R1 等頂級模型競爭。在 AIME 2024 數學競賽中達 86% 準確率,LiveCodeBench 為 65%,SWE-bench Verified 為 56%。雖然部分閉源模型仍在某些基準測試中領先,但 M1 顯著縮小性能差距,同時保持免費開放使用。模型提供 M1-40k 和 M1-80k 兩個版本,分別對應不同的「思考預算」或輸出長度。
與 DeepSeek R1 推出時不同,開發者尚未獨立確認 MiniMax 關於 M1 的聲稱。DeepSeek R1 推出後,開發者社群迅速確認其性能確實如公司所言,令 Nvidia 股價單日暴跌 17%,市值蒸發約 6000 億美元.MiniMax 由騰訊和阿里巴巴等中國大型科技公司支持,聲稱在 200 個國家和地區擁有數千萬用戶,以及 5 萬家企業客戶。目前用戶可透過 MiniMax 提供的 API 免費試用 M1,開發者也可下載完整模型在自有運算資源上運行。如果 MiniMax 的能力聲稱屬實,勢必獲得市場關注。
來源:Fortune
分享到 :
最新影片
