低成本 AI 推理模型 S1 震撼登場
近期,來自史丹佛大學和華盛頓大學的研究團隊成功訓練了一款名為 S1 的 AI 推理模型,訓練成本竟然低於 50 美元,且雲端計算資源需求極低。這項研究於上週五發表,結果顯示,S1 在數學與程式設計能力測試中,表現可與 OpenAI 的 O1 模型及 DeepSeek 的 R1 模型相提並論。更令人振奮的是,S1 的程式碼與數據已在 GitHub 公開,供研究人員自由使用。
圖片由gpt-4o 生成
低成本、高效能:S1 是如何做到的?
研究團隊並未從零開始訓練 S1,而是基於現有的預訓練模型,透過「蒸餾技術」提取所需的推理能力。具體來說,他們使用了 Google Gemini 2.0 Flash Thinking 實驗模型進行蒸餾,這與上個月加州大學柏克萊分校研究人員訓練另一款 AI 推理模型的方式類似(該模型訓練成本約 450 美元)。
這個突破讓許多 AI 研究者感到興奮,因為它證明了即便沒有龐大資金,依然能夠推動 AI 技術進步。然而,這也引發了一個關鍵問題:如果任何人都能以低成本複製價值數百萬美元的 AI 模型,大型 AI 公司的競爭優勢究竟何在?
事實上,大型 AI 實驗室對這一趨勢並不樂見。OpenAI 甚至指控 DeepSeek 在模型蒸餾過程中,違規使用其 API 數據。S1 研究團隊則希望找到更簡單的方法來實現強大的推理能力,並提升「測試時運算擴展」能力,讓 AI 在回答問題前能花更多時間「思考」。這正是 OpenAI O1 模型的關鍵突破,DeepSeek 和其他 AI 實驗室也在嘗試不同的方法來複製這項技術。
蒸餾技術與「測試時運算擴展」
S1 的研究顯示,即使使用相對較小的數據集,也能透過監督微調(SFT)方式有效蒸餾 AI 推理能力。與 DeepSeek 採用的大規模強化學習方法相比,這種方式成本更低、效率更高。此外,Google 目前允許研究人員免費存取 Gemini 2.0 Flash Thinking 實驗平台,但每日使用量有限,且禁止用於開發競爭性服務。
研究團隊為了訓練 S1,構建了一個包含 1,000 道精選數學題的資料集,並提供對應的答案與「思考過程」。整個訓練過程僅使用了 16 顆 Nvidia H100 GPU,耗時不到 30 分鐘。目前,研究人員甚至可以用 20 美元左右的租賃成本完成相同的訓練。此外,他們還巧妙地加入「wait」指令,強迫 AI 在回答前停頓,以提高回答準確率。
大型 AI 公司的反應與未來趨勢
隨著 Meta、Google 和 Microsoft 計畫在 2025 年投資數千億美元打造 AI 基礎設施,這項低成本蒸餾技術的發展,無疑將對現有 AI 商業模式產生衝擊。雖然蒸餾技術已成功降低模型複製成本,但目前尚未顯示出能大幅提升新模型效能的跡象。
關鍵重點整理:
- S1 模型訓練成本低於 50 美元,推理能力與頂尖模型相當。
- 研究團隊透過蒸餾技術,快速高效地萃取推理能力,避免高昂的訓練費用。
- 大型 AI 企業對低成本模型複製感到憂慮,未來的競爭焦點可能轉向 AI 基礎設施。
結論:S1 代表了 AI 研究的新可能性
這項研究展示了,在精心策劃的數據與創新的推理技術支持下,即便是低成本 AI 模型,也能夠與頂級 AI 競爭。研究結果進一步證實,單靠大量數據並不足以提升 AI 推理能力,關鍵在於數據的多樣性與難度。此外,「測試時運算擴展」策略能有效控制 AI 的推理過程,提升最終回答的準確性。
S1 的出現,無疑為 AI 研究帶來新契機,也讓我們重新思考:當 AI 訓練成本大幅降低後,未來的 AI 創新將如何發展?