Liquid AI 發表 LFM2:號稱市場最快的終端裝置基礎模型,效能與速度兼備

新創公司 Liquid AI 推出了第二代基礎模型 LFM2,專為手機、筆電、AI PC 等邊緣裝置設計。本文將深入探討 LFM2 的三大模型、其驚人的效能表現,以及與 Qwen 3、Llama 3.2 等模型的比較,並解析其開源對開發者和產業的意義。


人工智慧的發展正快速地從雲端走向我們生活中的各種裝置。在這個趨勢下,新創公司 Liquid AI 近日投下了一枚震撼彈,正式發表了其第二代 Liquid 基礎模型系列——LFM2。這系列模型不僅標榜為市場上最快、記憶體效率最高的「終端裝置 AI」,更直接將模型權重開源,向全球開發者社群招手。

LFM2 的目標非常明確:就是要讓 AI 無縫地在手機、筆記型電腦、AI PC、汽車,甚至是穿戴式裝置和機器人上高效運行。這意味著,未來我們所體驗到的生成式 AI 將不再完全依賴遠端伺服器,而能在本機端即時反應,帶來前所未有的流暢體驗。

LFM2 系列模型:小巧而強大的三種選擇

這次 Liquid AI 一口氣推出了三款不同規模的 LFM2 模型,分別是 LFM2-350MLFM2-700MLFM2-1.2B。這些模型的參數規模從 3.5 億到 12 億不等,旨在滿足不同裝置的運算能力和應用需求。

  • LFM2-350M: 這是系列中最小巧的模型,專為資源極度有限的裝置設計,例如智慧手錶或簡易的物聯網設備。
  • LFM2-700M: 作為中量級選手,它在效能和速度之間取得了絕佳的平衡,非常適合智慧型手機和多數筆記型電腦。
  • LFM2-1.2B: 這是目前系列中最強大的模型,鎖定高階 AI PC 和需要更複雜推理能力的邊緣運算場景。

有趣的是,Liquid AI 的圖表顯示,LFM2 系列在模型大小與效能評分之間呈現出漂亮的線性增長關係。這代表使用者可以很清楚地預期:選擇更大規模的模型,就能換來更強的處理能力。

效能比一比:LFM2 如何稱霸群雄?

光說不練假把戲,Liquid AI 直接端出了詳盡的效能測試數據,將 LFM2 與市面上幾個主流的輕量級模型進行了正面對決,包含阿里的 Qwen 3、Meta 的 Llama 3.2,以及 Google 的 Gemma 3。

從官方公布的數據來看,LFM2 的表現確實令人眼睛一亮。

在多項業界公認的基準測試(Benchmarks)中,LFM2-1.2B 模型在許多項目上都展現了優勢:

  • MMLU (大規模多任務語言理解): LFM2-1.2B 拿下了 55.23 的高分,超越了 Llama 3.2-1B-Instruct 的 46.6 和 Gemma 3-1B-it 的 40.08。
  • GSM8K (小學數學推理): 在這項考驗邏輯推理的測試中,LFM2-1.2B 以 58.3 的分數大幅領先,顯示其出色的數學解題能力。
  • IFEval (指令遵循能力): LFM2-1.2B 獲得了 74.89 的分數,緊追在 Qwen 3-1.7B 的 73.98 之後,表現相當優異。

這些數據說明,即使 LFM2 的模型參數比對手小,其綜合能力卻能與之匹敵,甚至在某些方面更勝一籌。這就是 Liquid AI 所謂的「高效率」,用更少的資源,做更多的事。

速度才是王道:終端裝置的生成體驗

對於終端裝置來說,模型的推理速度直接影響使用者體驗。想像一下,當你對著手機下指令,卻要等上好幾秒才有回應,那感覺肯定很差。

Liquid AI 特別強調了 LFM2 在文字生成速度上的驚人表現。在一張以 AMD H8370 CPU 進行測試的圖表中,可以看到 LFM2 模型在不同上下文長度(Context Length)下的生成速度(以 tokens/sec 為單位)遠遠甩開了其他對手。

尤其是 LFM2-350M 和 LFM2-700M,即使在處理較長的文本時,其速度依然保持在非常高的水準。這意味著無論是進行即時問答、撰寫草稿,還是進行程式碼輔助,LFM2 都能提供極為流暢、幾乎沒有延遲的互動感受。這對於追求極致體驗的 AI PC 和高階智慧型手機市場來說,無疑是個巨大的誘因。

開源的意義:加速邊緣 AI 的普及

Liquid AI 這次不僅僅是發表產品,更是將 LFM2 的模型權重開源,提供給學術研究和商業使用。這個決定對於整個 AI 社群來說意義重大。

開源讓開發者可以自由地在 LFM2 的基礎上進行客製化和微調,打造出符合特定需求的應用。例如,手機製造商可以利用 LFM2 開發出更聰明的語音助理;汽車公司則能打造反應更即時的車載娛樂系統。

透過開放社群的力量,LFM2 的生態系將能快速成長,激發出更多創新的應用,真正加速邊緣 AI 技術的普及化。

常見問題解答 (FAQ)

問:LFM2 模型與其他大型語言模型 (如 GPT-4) 有何不同?

答: 最主要的區別在於設計目標和應用場景。GPT-4 這類大型模型主要在雲端伺服器上運行,追求的是極致的綜合能力。而 LFM2 則專為「邊緣裝置」或「終端裝置」設計,它更注重運行的速度和效率,目標是在有限的硬體資源下,提供最佳的即時 AI 體驗。

問:身為開發者,我該如何開始使用 LFM2?

答: Liquid AI 已經將 LFM2 的模型權重開源。您可以前往他們的官方 X (前身為 Twitter) 帳號 @LiquidAI_ 尋找相關的開源連結和技術文件,下載模型並開始您的開發專案。

問:LFM2 的「Liquid」是什麼意思?

答: 「Liquid」這個詞源自於 Liquid AI 開發的「液態神經網路」(Liquid Neural Networks)。這是一種受到生物神經系統啟發的網路架構,相較於傳統的靜態神經網路,它能更動態地適應輸入的變化,因此在處理時序性資料和提升運算效率上具有獨特優勢,這也是 LFM2 能如此高效的原因之一。

總而言之,Liquid AI 的 LFM2 系列無疑為邊緣運算 AI 設立了新的標竿。它不僅證明了小模型同樣能擁有強大效能,更透過開源的方式,邀請全世界的開發者共同塑造一個反應更即時、更個人化的 AI 未來。

分享至:
DMflow.chat Ad
廣告

DMflow.chat

DMflow.chat: 您的智能對話夥伴,提升客戶互動體驗。

Learn More

© 2025 Communeify. All rights reserved.