tool

VibeThinker-1.5B:小模型撬動大邏輯,AI推理能力不再是大廠專利

November 13, 2025
Updated Nov 13
1 min read

AI 圈又迎來了新的挑戰者!由微博 AI 團隊開發的 VibeThinker-1.5B 模型,僅用 15 億參數和極低的訓練成本,就在多項數學和程式設計基準測試中擊敗了數百倍於其規模的巨型模型。這是否意味著,AI 的未來不再是越大越好?本文將深入探討 VibeThinker-1.5B 背後的獨特訓練方法、驚人效能以及它為 AI 領域帶來的啟示。


你是否也曾認為,只有那些動輒數千億、甚至上兆參數的龐然大物,才能在複雜的邏輯推理世界中稱霸?長久以來,AI 領域似乎都遵循著一個不成文的規定:模型越大,能力越強。然而,微博 AI 團隊最近開源的 VibeThinker-1.5B 模型,卻以一種令人驚訝的方式,對這個「常識」發起了挑戰。

這個模型僅有 15 億參數,訓練成本更是低至 7,800 美元,卻在多項高難度的數學和程式設計競賽基準測試中,展現了與 GPT OSS-20B Medium 等大型模型相媲美,甚至超越部分巨型模型的推理能力。 這究竟是怎麼做到的?

小個子的大能量:VibeThinker-1.5B 的驚人表現

先來看看 VibeThinker-1.5B 的「戰績」。在 AIME24、AIME25 和 HMMT25 這三大數學基準測試中,它的得分全面超越了參數規模是其 400 多倍的 DeepSeek R1 模型。 具體來說:

  • AIME24: 80.3 vs. 79.8
  • AIME25: 74.4 vs. 70.0
  • HMMT25: 50.4 vs. 41.7

這樣的成績不僅僅是數字上的勝利,更重要的是,它證明了小型模型在經過精心設計和訓練後,完全有潛力在複雜的邏輯推理任務上與巨型模型一較高下。更令人印象深刻的是,VibeThinker-1.5B 的基礎模型在這些測試上的得分極低,這意味著其優異表現並非僥倖,而是其獨特訓練方法的直接成果。

除了數學推理,VibeThinker-1.5B 在程式碼生成方面也同樣出色。在 LiveCodeBench V6 這項評估真實世界程式設計能力的測試中,它以 51.1 的分數略微領先於 Magistral Medium 的 50.3 分,再次凸顯了其強大的推理效能。

成功的秘訣:「光譜到信號原則」

那麼,VibeThinker-1.5B 究竟是如何用有限的資源實現如此卓越的表現呢?答案就在於其創新的後訓練方法——「光譜到信號原則」(Spectrum-to-Signal Principle, SSP)。

這個原則聽起來可能有些抽象,但其核心理念其實相當直觀。傳統的模型訓練方法,往往像是在單行道上開車,雖然方向明確,卻容易錯過其他可能性。而 SSP 框架則不同,它將訓練過程分為兩個主要階段:

  1. 光譜階段 (Spectrum Phase): 在監督式微調(SFT)階段,模型會採用「兩階段多樣性探索蒸餾」技術。 簡單來說,就是鼓勵模型去探索各種各樣的解題思路和方案,而不是僅僅滿足於找到一個正確答案。這就像是讓一位學生在解題時,不僅要寫出答案,還要嘗試多種不同的解法,從而拓寬思路,形成一個廣泛的解決方案「光譜」。

  2. 信號階段 (Signal Phase): 接著,在強化學習(RL)階段,模型會運用「最大熵引導策略優化」(MaxEnt-Guided Policy Optimization, MGPO)框架。 這個階段的目標,是從前面產生的多樣化方案中,強化那些最準確、最高效的「信號」。模型會特別關注那些它還不太確定的問題,從而在不確定性中高效學習,最終鎖定最佳的解題策略。

透過這兩個階段的系統性整合,VibeThinker-1.5B 將「多樣性」確立為其核心設計原則,使其能夠在保持小體積的同時,發展出超越傳統訓練範式的強大而穩健的推理能力。

這對 AI 的未來意味著什麼?

VibeThinker-1.5B 的出現,不僅僅是技術上的一次突破,它更為整個 AI 研究和應用領域帶來了深遠的啟示。

首先,它有力地挑戰了「唯參數論」的觀點。 長期以來,業界普遍認為,提升模型能力的關鍵在於不斷擴大參數規模。 但 VibeThinker-1.5B 的成功證明,創新的訓練架構和優化策略,可以在很大程度上彌補參數規模的不足,實現「以小博大」。

其次,這大大降低了高階 AI 研究的門檻。 巨型模型的訓練和推理成本極其高昂,往往只有科技巨頭才能負擔得起。而 VibeThinker-1.5B 以不到 8000 美元的訓練成本,就實現了世界級的性能,這無疑將推動 AI 技術的普及化,讓更多中小型企業、新創公司和獨立研究者也能參與到前沿的 AI 開發中來。

如何開始使用 VibeThinker-1.5B?

如果你對這個模型感興趣,好消息是,微博 AI 團隊已經在 Hugging FaceGithub 上開源了 VibeThinker-1.5B 的模型權重和技術報告。 你可以親自下載模型,在自己的專案中進行測試。

根據官方建議,這個模型特別適用於解決競賽風格的數學和程式設計問題。 為了獲得最佳效果,建議在推理時進行以下參數設定:

  • temperature: 0.6 或 1.0
  • max_token_length: 40960
  • top_p: 0.95
  • top_k: -1

結語:小模型的春天來了?

VibeThinker-1.5B 的橫空出世,像是為 AI 領域注入了一股清新的空氣。它讓我們看到,除了不斷堆砌算力和參數,我們還可以透過更聰明的演算法和架構設計,來發掘 AI 的潛力。

當然,這並不意味著大型模型將就此退出歷史舞台。但在許多特定領域,特別是需要高效推理能力的場景下,像 VibeThinker-1.5B 這樣的小而美、小而精的模型,無疑將扮演越來越重要的角色。或許,這正是 AI 走向成熟和普及的必經之路。

分享至:
Featured Partners

© 2026 Communeify. All rights reserved.