NVIDIA Nemotron Nano 2が衝撃デビュー:速度6倍、精度向上、さらに大量の学習データをオープンソース化!
AI分野の競争は止まらない!NVIDIAは最近、革新的なMamba-Transformerハイブリッドアーキテクチャを採用した新しいNemotron Nano 2シリーズモデルを発表しました。複雑な推論タスクで競合を凌駕するだけでなく、最大6倍のスループットを実現し、128Kの長文推論を単一のGPUで実行できるように圧縮します。さらに驚くべきことに、NVIDIAは前例のない6.6兆トークンもの事前学習データセットをオープンソース化し、AIコミュニティ全体に強力な推進力をもたらしました。
AIの発展の速さは息をのむほどです。誰もが様々なモデルの長所と短所を議論している最中、NVIDIAはまた新たな爆弾を投下しました。今回彼らがもたらしたのは、新しいモデルだけでなく、全く新しいエコシステム、NVIDIA Nemotron Nano 2シリーズと、その背後にある膨大な事前学習データセットです。
簡単に言えば、これは技術的な飛躍であるだけでなく、オープンソースコミュニティ全体への大きな貢献でもあります。今回NVIDIAがどんな素晴らしいものを提供してくれたのか見てみましょう。
Nemotron Nano 2の強みは?速いだけでなく、正確!
既存の言語モデルが複雑なタスクを処理する際に少し遅いと感じたり、ハードウェア要件が高すぎると感じたりするなら、Nemotron Nano 2は間違いなくあなたの目を輝かせるでしょう。
今回発表されたコアモデルNVIDIA-Nemotron-Nano-9B-v2は、多くの複雑な推論ベンチマークで、Qwen3-8Bなどの市場のトップクラスの同クラスのオープンソースモデルに匹敵するか、それを上回る性能を発揮します。下の比較から明らかなように、数学(AIME24、AIME25)、科学(GPQA-D)、長文理解(RULER 128k)などの分野で、Nemotron Nano 2の精度はリードを保っています。
しかし、本当のハイライトは右側の「スループット」(Throughput)テストです。長いシーケンスのテキストを処理する際、Nemotron Nano 2の速度はQwen3-8Bの最大6.3倍に達します!
これはどういうことでしょうか?開発者はより低いコストで、より短い時間で推論タスクを完了できることを意味します。リアルタイムの応答が必要なアプリケーション(チャットボット、リアルタイムのコード生成など)にとっては、これはまさに朗報です。
これはすべて、その革新的なMamba-Transformerハイブリッドアーキテクチャのおかげです。2つのエンジンの利点を組み合わせたものと考えることができます。Transformerアーキテクチャは、強力な分析脳のように、深い推論に優れています。一方、Mambaアーキテクチャは、その高効率と長いシーケンスを処理する能力で知られており、まるで妨げのない高速道路のようです。この2つを組み合わせることで、モデルは賢く、かつ高速になります。
モデルだけでなく、データの宝庫
これまで、トップAIモデルの学習データセットは通常、各社の最高機密でした。しかし今回、NVIDIAは驚くべき決定を下しました。彼らは事前学習に使用されたデータセットの大部分、Nemotron-Pre-Training-Dataset-v1をオープンソース化したのです。
このデータセットの規模はどれくらいでしょうか?なんと6.6兆トークンです!内容は、高品質のウェブクロールデータ、数学、コード、および複数の言語の質疑応答データを網羅しています。NVIDIAはこれを4つの主要なカテゴリに整理しました。
- Nemotron-CC-v2: 大量の処理済みウェブデータを含み、合成データ技術を使用して15言語に翻訳された質疑応答ペアを生成し、モデルの多言語能力を大幅に強化しました。
- Nemotron-CC-Math-v1: 数学に特化したデータセット。NVIDIAは、ウェブから数式やコードスニペットを正確に抽出して保持する独自のプロセスを開発し、これまでのデータセットで数式が失われたり破損したりすることが多かったという問題を解決しました。
- Nemotron-Pretraining-Code-v1: GitHubからの大規模なコードデータセットで、多段階の重複排除、ライセンスフィルタリング、品質チェックを経て、コードの実用性とコンプライアンスを確保しています。
- Nemotron-Pretraining-SFT-v1: STEM(科学、技術、工学、数学)、学術、推論、多言語など、複数の分野をカバーする合成生成データセットで、モデルの指示追従能力と推論能力を向上させるために特別に設計されています。
このデータセットのリリースは、研究者がNVIDIAの成果を再現・検証できるだけでなく、AIコミュニティ全体に貴重なリソースを提供し、将来のAI技術の革新を間違いなく加速させるでしょう。
技術の深掘り:魔法の裏にある秘密
これほど強力なモデルが何もないところから生まれたわけではありません。NVIDIAは技術報告書で、いくつかの重要な学習のハイライトも共有しています。
- 効率的な事前学習: ベースモデルであるNemotron-Nano-12B-v2-Baseは、FP8精度を使用して20兆を超えるトークンで学習され、継続的な事前学習段階を経て、他の性能を犠牲にすることなく128kの長文を処理する能力を備えました。
- きめ細かな事後チューニング: モデルは、教師ありファインチューニング(SFT)、グループワイズ相対ポリシー最適化(GRPO)、直接選好最適化(DPO)、および人間のフィードバックからの強化学習(RLHF)など、複数の技術を組み合わせて調整され、複雑な指示を正確に理解して実行できるようにしました。
- 究極の圧縮技術: 最も驚くべきは、NVIDIAがMinitronベースの圧縮戦略を使用して、単一のNVIDIA A10G GPUで128kトークンの長文推論を処理できるようにモデルを圧縮することに成功したことです。これにより、高性能な大規模言語モデルを導入するためのハードウェアの障壁が大幅に下がりました。
Nemotron Nano 2を始めるには?
NVIDIAは3つのコアモデルをHugging Faceで公開しており、誰でもダウンロードして使用できます。
- NVIDIA-Nemotron-Nano-9B-v2: 完全にアライメントされ、プルーニングされた最終的な推論モデルで、最も性能が高い。
- NVIDIA-Nemotron-Nano-9B-v2-Base: プルーニングされたベースモデル。
- NVIDIA-Nemotron-Nano-12B-v2-Base: アライメントもプルーニングもされていないオリジナルのベースモデル。
すべての技術的な詳細を深く知りたい研究者や開発者のために、NVIDIAは完全な技術報告書も提供しています。
結論として、NVIDIA Nemotron Nano 2の登場は、モデルの性能で新たな基準を打ち立てただけでなく、そのオープンデータ戦略によってAIの将来の発展への道を切り開きました。より速く、より正確で、より身近なAIの時代が急速に到来しています。
よくある質問(FAQ)
Q1: NVIDIA Nemotron Nano 2とは何ですか? A: Nemotron Nano 2は、NVIDIAが発表した高性能、高精度のハイブリッドMamba-Transformerアーキテクチャ言語モデルのシリーズです。強力な推論能力を維持しながら、計算速度と効率を大幅に向上させています。
Q2: Nemotron Nano 2は他のモデルよりどこが速いのですか? A: 革新的なハイブリッドアーキテクチャを採用しているため、Nemotron Nano 2は長いテキストシーケンスを処理する際のスループットが大幅に向上しています。特定のテストでは、同クラスのモデルの最大6.3倍の速度を達成しており、これは応答時間の短縮と計算コストの削減を意味します。
Q3: Nemotron事前学習データセットのユニークな点は何ですか?
A: 大手企業がこれほど大規模(6.6兆トークン)で高品質な事前学習データセットをオープンソース化するのは業界初です。最も特筆すべきはNemotron-CC-Math-v1
サブセットで、独自の技術プロセスを用いてウェブから数式やコードをうまく保持しており、その品質は従来のデータセットをはるかに上回っています。
Q4: このモデルを実行するにはどのようなハードウェアが必要ですか? A: NVIDIAの報告によると、圧縮されたNemotron Nano 2モデルは、単一のNVIDIA A10G GPU(22GiBのメモリを搭載)で最大128kトークンの長文推論を処理できます。これにより、高性能AIのハードウェア要件が大幅に緩和されます。