スタートアップのLiquid AIは、携帯電話、ラップトップ、AI PCなどのエッジデバイス向けに特別に設計された第2世代の基盤モデルLFM2を発表しました。この記事では、LFM2の3つのモデル、その印象的なパフォーマンスベンチマーク、Qwen 3やLlama 3.2などのモデルとの比較、そしてそのオープンソースリリースが開発者や業界にとって持つ意味を分析します。
人工知能の開発は、クラウドから私たちの日常生活のさまざまなデバイスへと急速に移行しています。このトレンドに沿って、スタートアップのLiquid AIは最近、第2世代のLiquid基盤モデルシリーズであるLFM2を公式にリリースし、大きな波紋を広げました。このモデルシリーズは、市場で最速かつ最もメモリ効率の高い「オンデバイスAI」として宣伝されているだけでなく、モデルの重みもオープンソース化されており、世界中の開発者コミュニティに呼びかけています。
LFM2の目標は明確です。携帯電話、ラップトップ、AI PC、車、さらにはウェアラブルデバイスやロボットでもAIがシームレスかつ効率的に実行できるようにすることです。これは、将来私たちが体験する生成AIが、もはやリモートサーバーに完全に依存するのではなく、ローカルでリアルタイムに反応し、前例のないスムーズな体験を提供できることを意味します。
LFM2シリーズモデル:3つのコンパクトで強力な選択肢
今回、Liquid AIは、LFM2-350M、LFM2-700M、LFM2-1.2Bという異なるスケールの3つのLFM2モデルを一度に発表しました。これらのモデルのパラメータスケールは3億5000万から12億の範囲で、さまざまなデバイスの計算能力とアプリケーションのニーズを満たすように設計されています。
- LFM2-350M: これはシリーズで最もコンパクトなモデルで、スマートウォッチやシンプルなIoTデバイスなど、リソースが非常に限られているデバイス向けに設計されています。
- LFM2-700M: ミドル級の競合として、パフォーマンスと速度の優れたバランスを実現しており、スマートフォンやほとんどのラップトップに最適です。
- LFM2-1.2B: これは現在シリーズで最も強力なモデルであり、より複雑な推論能力を必要とするハイエンドのAI PCやエッジコンピューティングシナリオを対象としています。
興味深いことに、Liquid AIのチャートは、LFM2シリーズのモデルサイズとパフォーマンススコアの間にきれいな線形成長関係を示しています。これは、ユーザーがより大きなモデルを選択すると、より強力な処理能力が得られることを明確に期待できることを意味します。
パフォーマンス対決:LFM2はどのようにしてフィールドを支配するのか?
行動は言葉よりも雄弁であり、Liquid AIは詳細なパフォーマンステストデータを提供し、LFM2を市場のいくつかの主流の軽量モデル(AlibabaのQwen 3、MetaのLlama 3.2、GoogleのGemma 3など)と比較しました。
公式にリリースされたデータに基づくと、LFM2のパフォーマンスは確かに印象的です。
いくつかの業界で認められたベンチマークにおいて、LFM2-1.2Bモデルは多くの分野でその優位性を示しました:
- MMLU(Massive Multitask Language Understanding): LFM2-1.2Bは55.23という高得点を記録し、Llama 3.2-1B-Instructの46.6やGemma 3-1B-itの40.08を上回りました。
- GSM8K(Grade School Math): この論理的推論のテストでは、LFM2-1.2Bは58.3というスコアで大きなリードを奪い、優れた数学的問題解決能力を示しました。
- IFEval(Instruction Following Evaluation): LFM2-1.2Bは74.89というスコアを達成し、Qwen 3-1.7Bの73.98に僅差で続き、非常に称賛に値するパフォーマンスでした。
これらの数字は、LFM2のモデルパラメータが競合他社よりも少ないにもかかわらず、その全体的な能力は同等であり、いくつかの側面ではさらに優れていることを示しています。これがLiquid AIが「高効率」と呼ぶものです。より少ないリソースでより多くのことを行うことです。
スピードが王様:オンデバイスでの生成体験
オンデバイスアプリケーションでは、モデルの推論速度がユーザーエクスペリエンスに直接影響します。携帯電話にコマンドを与えて、応答を数秒待たなければならないと想像してみてください。それはきっとイライラするでしょう。
Liquid AIは、LFM2の驚異的なテキスト生成速度を特に強調しています。AMD H8370 CPUで実施されたテストを示すチャートでは、さまざまなコンテキスト長におけるLFM2モデルの生成速度(トークン/秒)は、ライバルのそれをはるかに上回っています。
特にLFM2-350MとLFM2-700Mは、より長いテキストを処理する場合でも、その速度は非常に高いレベルを維持しています。これは、リアルタイムのQ&A、テキストの下書き、コード支援のいずれであっても、LFM2が非常にスムーズで、ほぼ遅延のないインタラクティブな体験を提供できることを意味します。これは、究極のユーザーエクスペリエンスを追求するAI PCやハイエンドスマートフォン市場にとって、間違いなく大きな魅力です。
オープンソースの意義:エッジAIの採用を加速する
今回、Liquid AIは製品を発売するだけでなく、LFM2のモデルの重みを学術研究と商用利用の両方のためにオープンソース化しています。この決定は、AIコミュニティ全体にとって大きな意味を持ちます。
オープンソース化により、開発者はLFM2を自由にカスタマイズおよびファインチューニングして、特定のニーズを満たすアプリケーションを構築できます。たとえば、スマートフォンメーカーはLFM2を使用してよりスマートな音声アシスタントを開発でき、自動車会社はより応答性の高い車載インフォテインメントシステムを作成できます。
オープンコミュニティの力を活用することで、LFM2エコシステムは急速に成長し、より革新的なアプリケーションを生み出し、エッジAI技術の普及を真に加速させることができます。
よくある質問(FAQ)
Q:LFM2モデルは他の大規模言語モデル(GPT-4など)とどう違いますか?
A: 主な違いは、設計目標とアプリケーションシナリオにあります。GPT-4のような大規模モデルは、主にクラウドサーバーで実行され、究極の包括的な能力を目指しています。一方、LFM2は、「エッジデバイス」または「オンデバイス」アプリケーション向けに特別に設計されています。速度と効率に重点を置いており、限られたハードウェアリソースで最高のリアルタイムAI体験を提供することを目標としています。
Q:開発者として、LFM2を使い始めるにはどうすればよいですか?
A: Liquid AIはLFM2のモデルの重みをオープンソース化しています。公式X(旧Twitter)アカウント@LiquidAI_にアクセスして、関連するオープンソースリンクと技術ドキュメントを見つけて、モデルをダウンロードし、開発プロジェクトを開始できます。
Q:LFM2の「Liquid」とはどういう意味ですか?
A: 「Liquid」という言葉は、Liquid AIが開発した「Liquid Neural Networks」に由来します。これは、生物の神経系にヒントを得たネットワークアーキテクチャです。従来の静的なニューラルネットワークと比較して、入力の変化により動的に適応できるため、時系列データの処理や計算効率の向上に独自の利点があります。これがLFM2が非常に効率的である主な理由の1つです。
結論として、Liquid AIのLFM2シリーズは、エッジコンピューティングAIの新しいベンチマークを間違いなく設定しました。小規模なモデルが強力なパフォーマンスを発揮できることを証明するだけでなく、オープンソースのアプローチを通じて、世界中の開発者を招待し、より応答性が高くパーソナライズされたAIの未来を共同で形作っています。


