tool

Liquid AI LFM2.5 強勢登場:重新定義端側 AI 效能,1B 參數模型的極致表現

January 6, 2026
Updated Jan 6
2 min read

Liquid AI 最新發布 LFM2.5 系列模型,以 1.2B 的輕量級參數帶來桌機級的效能。本文深入解析其在文字、視覺、日語及原生音訊處理上的突破,並探討這款針對端側裝置優化的開源模型如何改變開發者生態。


大家有沒有發現,最近 AI 界的風向似乎正在悄悄轉變?雖然超大型模型依然佔據頭條,但真正在開發者社群中引起騷動的,反而是那些「小而美」、能跑在自己設備上的模型。就在昨天,Liquid AI 拋出了一枚震撼彈:LFM2.5 系列。這不僅僅是一次版本更新,它向我們展示了當 10 億(1B)參數等級的模型經過精心調校後,竟然能爆發出如此驚人的潛力。

LFM2.5 的核心目標非常明確:讓強大的 AI 走出雲端機房,直接住進你的筆電、手機甚至汽車裡。Liquid AI 這次不僅將預訓練數據量從 10T 提升到了 28T Token,更引入了強化學習來打磨後訓練流程。結果如何?他們在各項基準測試中,正面擊敗了 Llama 3.2 1B 和 Qwen 3 1.7B 等強勁對手。

接下來,我們就來仔細拆解這次發布的重點,看看這個「小巨人」家族究竟藏著什麼黑科技。

LFM2.5 的核心架構:不只是堆砌數據

這裡有個關鍵點需要釐清。很多人認為提升模型能力就是單純地「餵更多書給它讀」。但 LFM2.5 的成功並非僅此而已。它是建立在 LFM2 設備優化混合架構(device-optimized hybrid architecture)之上的進化版。

Liquid AI 這次採取了更積極的策略,將預訓練的規模擴大了近三倍(達到 28T Token)。這意味著模型在「大腦」容量有限的情況下,吸收了更廣泛的知識密度。更重要的是,團隊在後訓練階段大量運用了強化學習。這就像是給模型請了一位嚴格的家教,針對邏輯推理和指令遵循能力進行了高強度的特訓。

對於開發者來說,這代表著你拿到手的不只是一個「會說話」的模型,而是一個懂得如何使用工具、能執行複雜指令的可靠代理(Agent)。而且,這些都是在開源權重(Open-weight)的前提下實現的。

滿足多元需求的五大模型變體

LFM2.5 並非單打獨鬥,而是一個針對不同場景量身打造的家族。Liquid AI 這次一口氣推出了五個針對特定用途優化的模型實例,讓開發者不再需要拿著鐵鎚找釘子。

1. 通用指令模型 (Instruct Model)

這是整個系列的明星產品。LFM2.5-1.2B-Instruct 是大多數開發者的首選。它經過了監督式微調(SFT)和多階段強化學習,開箱即用。無論是處理一般對話、數學問題,還是調用外部工具,它都展現出了超越同級對手的穩定性。這款模型非常適合用來打造本地端的 Copilot 或是個人助理,因為它反應夠快,且不需要聯網就能處理隱私數據。

2. 基礎模型 (Base Model)

對於那些喜歡自己動手改裝的技術愛好者或企業研發團隊,LFM2.5-1.2B-Base 提供了最純粹的畫布。這是一個預訓練的檢查點(Checkpoint),尚未經過指令微調。如果您需要訓練一個特定領域的助手(比如醫療、法律專用),或者是想嘗試新穎的後訓練方法,這個基礎模型就是最佳起點。它擁有強大的知識底蘊,等待您去引導它的輸出方向。

3. 日語優化模型 (Japanese Language Model)

語言的精髓往往在於文化與語境,而不僅僅是字面翻譯。LFM2.5-1.2B-JP 是專為日語環境打造的聊天模型。雖然原版模型已經支援日語,但這個專用版本在日語知識庫和指令遵循上達到了該尺寸模型的「最先進」(SOTA)水準。對於需要開發日本市場應用、且極度重視文化細微差別的開發者來說,這是一個不可多得的工具。

4. 視覺語言模型 (Vision-Language Model)

世界是視覺的,AI 自然也不能只懂文字。LFM2.5-VL-1.6B 是基於更新後的骨幹網路構建的。它最大的進步在於「多圖像理解」和「多語言視覺處理」。這意味著你可以丟給它幾張照片,用中文、法文或阿拉伯文問它問題,它都能準確理解並回答。在基準測試中,它在處理真實世界場景的能力上有了顯著提升,非常適合部署在需要「看懂」環境的邊緣設備上。

5. 原生音訊語言模型 (Audio-Language Model)

老實說,這是這次發布中最讓人興奮的部分。傳統的語音 AI 流程非常繁瑣:先把聲音轉成文字(ASR),丟給 LLM 思考,再把文字轉回聲音(TTS)。這中間不僅延遲高,語氣和情感也容易丟失。

LFM2.5-Audio-1.5B 採用了端到端的原生處理方式。它直接接受語音輸入,並直接輸出語音。這種架構消除了中間環節的資訊損耗,使得延遲大幅降低。根據官方數據,其核心的音訊解碼器(Detokenizer)比前一代快了 8 倍。這意味著在車載系統或物聯網設備上,AI 可以像真人一樣實現近乎即時的語音互動,而不需要等待雲端處理。

部署與生態系:讓 AI 真正落地

一個模型再強,如果很難部署,那也只是實驗室裡的玩具。Liquid AI 顯然深知這一點,因此在相容性上下足了功夫。LFM2.5 從發布第一天起就支援主流的推論框架。

  • llama.cpp: 這是 CPU 推論的黃金標準。透過 GGUF 格式,LFM2.5 可以流暢地運行在各種普通硬體上。
  • MLX: 對於蘋果(Apple)生態的開發者,這是個好消息。LFM2.5 針對 Apple Silicon 的統一記憶體架構進行了優化,MacBook 用戶可以享受到極致的推論速度。
  • ONNX: 提供了跨平台的硬體支援,從雲端到邊緣設備通吃。
  • 合作夥伴優化: Liquid AI 與 AMD 及 Nexa AI 合作,確保模型能在 NPU(神經網路處理器)上高效運行。這對於需要在筆電或手機上長時間運行 AI 且不希望耗盡電池的用戶來說至關重要。

您可以直接在 Hugging Face 下載這些模型,或者透過 Liquid 的官方部落格 了解更多技術細節。

效能實測:數字會說話

在基準測試中,LFM2.5 展現了越級打怪的實力。以 LFM2.5-1.2B-Instruct 為例,在 MMLU-Pro(知識)、IFEval(指令遵循)和 GPQA(科學問答)等測試中,分數均大幅領先 Llama 3.2 1B Instruct 和 Gemma 3 1B IT。

特別值得一提的是音訊模型的表現。在性別聲音生成的測試中,LFM2.5 能夠精準控制男聲與女聲的生成,且語音品質(STOI 和 UTMOS 指標)與原始錄音驚人地接近。這證明了在小參數模型上,依然可以實現高保真的多模態互動。

結論:端側 AI 的新篇章

LFM2.5 的出現,向我們證明了「大」不一定總是最好。透過優化的架構和高品質的訓練數據,1B 級別的模型完全有能力處理複雜的任務。對於開發者而言,這開啟了無限的想像空間:更隱私的個人助理、反應更快的智慧家居、以及真正聽得懂人話的車載系統。這不是為了取代雲端大模型,而是讓 AI 無所不在地滲透進我們的生活縫隙中。


常見問題解答 (FAQ)

Q1:LFM2.5 適合商業用途嗎? 是的,LFM2.5 系列模型採用開源權重(Open-weight)發布。這意味著開發者可以下載、微調並將其部署在自己的應用程式中,而沒有嚴格的限制。對於希望在產品中集成私有化 AI 模型的企業來說,這是一個極具吸引力的選擇。

Q2:運行 LFM2.5 需要很強的硬體嗎? 完全不需要。這正是 LFM2.5 的優勢所在。由於參數量僅為 1.2B 至 1.6B,它可以在大多數現代筆記型電腦、智慧型手機甚至樹莓派等 IoT 設備上流暢運行。配合 llama.cpp 或 ONNX Runtime,即使沒有高階 GPU,單靠 CPU 也能獲得不錯的推論速度。

Q3:LFM2.5 的音訊模型與傳統語音助手有何不同? 傳統助手通常是「聽寫 -> 理解 -> 朗讀」的三段式流程,反應慢且機械化。LFM2.5-Audio 採用原生「語音對語音」架構,直接處理音訊訊號。這不僅讓反應速度快了數倍,還能保留語氣、情感等非語言訊息,讓對話感覺更像是在與真人交談,而非機器人。

Q4:我可以在哪裡下載這些模型? 目前所有 LFM2.5 的變體模型都已上傳至 Hugging Face 平台。您可以搜尋「LiquidAI」找到相關的 Collection,或是直接透過 Liquid AI 官網 的連結進行存取。除此之外,它們也支援透過 LEAP 平台進行部署。

分享至:
Featured Partners

© 2026 Communeify. All rights reserved.