Google Gemini 再進化:全新 2.5 Flash & Flash-Lite 登場,更快、更省、更聰明
Google 推出 Gemini 2.5 Flash 與 Flash-Lite 的最新預覽版本,不僅在指令遵循、多模態能力上大幅提升,更顯著降低了成本與延遲。此次更新旨在讓開發者事半功倍,而全新的
-latest
別名則能簡化開發流程。
在追求更強大、更高效 AI 模型的道路上,Google 持續邁進。該公司宣布推出 Gemini 2.5 Flash 和 2.5 Flash-Lite 的最新更新版本,目前已可在 Google AI Studio 和 Vertex AI 上進行體驗。此次更新的核心目標明確:在持續提升輸出品質的同時,大幅改善模型的運作效率。
簡單來說,此舉旨在讓 AI 不僅更聰明,反應也更快、成本更低。
從下方的圖表數據可以清楚看到,新的預覽模型在智慧程度(Artificial Analysis Intelligence Index)和端到端回應時間(End-to-end response time)之間取得了絕佳的平衡,相較於目前的穩定版本,效能提升顯著。
表 1:智慧 vs. 端到端回應時間
模型版本 | 智慧指數 (越高越好) | 端到端回應時間 (秒,越低越好) |
---|---|---|
Gemini 2.5 Flash-Lite STABLE (No Thinking) | ~30 | ~2.5 |
Gemini 2.5 Flash STABLE (No Thinking) | ~40 | ~3.5 |
Gemini 2.5 Flash-Lite 09-2025 (No Thinking) | ~47 | ~5.0 |
Gemini 2.5 Flash 09-2025 (No Thinking) | ~42.5 | ~2.0 |
Gemini 2.5 Flash-Lite STABLE | ~40 | ~7.5 |
Gemini 2.5 Flash STABLE | ~50 | ~15.5 |
Gemini 2.5 Flash 09-2025 | ~53 | ~10.0 |
表 2:輸出 Token 效率
模型版本 | 輸出 Tokens |
---|---|
Gemini 2.5 Flash (09-2025) | 71M |
Gemini 2.5 Flash STABLE | 93M |
Gemini 2.5 Flash-Lite (09-2025) | 70M |
Gemini 2.5 Flash-Lite STABLE | 140M |
Flash-Lite:更精準、更簡潔,且具備更強的多媒體能力
最新的 Gemini 2.5 Flash-Lite 版本進行了一次全面升級,主要圍繞著三個開發者最關心的主題進行了優化:
- 更精準的指令遵循: 針對 AI 有時僅能部分理解複雜指令的問題,新版 Flash-Lite 在理解複雜指令和系統提示方面有了長足的進步,能更準確地執行要求。
- 不再冗長,言簡意賅: 舊模型有時會提供過於冗長的答案,增加延遲和 token 成本。此次更新大幅降低了模型的冗長度,使其能給出更簡潔、精確的回答,這對需要高吞吐量的應用場景是一大助益。實際上,輸出 token 數(即成本)降低了 50%。
- 更強大的多模態與翻譯能力: Flash-Lite 在多模態能力上有所增強,包括更準確的語音轉錄、更深入的圖片理解,以及更流暢的翻譯品質。
開發者可透過以下模型字串開始測試:
gemini-2.5-flash-lite-preview-09-2025
Flash:AI 助理的全面進化
此次的 2.5 Flash 模型更新,直接回應了 Google 從開發者社群收到的兩大核心回饋:
- 更聰明的工具使用能力: Google 改進了模型使用工具的方式,使其在處理複雜、多步驟的代理人(agentic)應用時表現得更好。這讓 AI 能獨自完成更複雜的任務。在關鍵的 SWE-Bench Verified 基準測試中,新模型的表現提升了 5%,從 48.9% 上升到 54%,是一項顯著的進步。
- 更高的效率,更低的成本: 新模型提供了極高的成本效益,能以更少的 token、更短的延遲時間,產出更高品質的結果。圖表顯示,Gemini 2.5 Flash 的輸出 token 數減少了 24%,意味著成本直接下降。
早期測試者已給出許多正面評價。例如,自動化 AI 代理公司 Manus 的聯合創始人兼首席科學家 Yichao ‘Peak’ Ji 提到:「新的 Gemini 2.5 Flash 模型完美結合了速度與智慧。我們的內部基準測試顯示,在處理長遠規劃的代理任務時,其性能提升了 15%。它卓越的成本效益使 Manus 能夠擴展到前所未有的規模。」
若要體驗此版本,可使用以下模型字串:
gemini-2.5-flash-preview-09-2025
為開發者設計:迎接 -latest
別名時代
Google 方面表示,過去一年的經驗顯示,發布模型的預覽版本能讓開發者第一時間測試最新的功能與創新,並提供寶貴的回饋,有助於打造更穩定、更出色的正式版 Gemini。
為了讓開發者能更輕鬆地取用最新模型,同時減少追蹤冗長模型字串的麻煩,Google 特別為每個模型系列引入了 -latest
別名(alias)。這個別名將永遠指向該系列最新的模型版本,讓開發者無需為每次更新而修改程式碼,就能輕鬆實驗新功能。
開發者可透過以下方式使用新的預覽版:
gemini-flash-latest
gemini-flash-lite-latest
為確保開發者能安心測試,在 Google 更新或棄用 -latest
背後的特定版本之前,都會提前兩週透過電子郵件通知。但須注意,這些只是模型別名,費率限制、成本和可用功能可能會隨著版本發布而變動。
如果應用程式需要更高的穩定性,Google 建議開發者繼續使用明確指定版本的模型,例如 gemini-2.5-flash
和 gemini-2.5-flash-lite
。
Google 將繼續探索 AI 的無限可能,此次的發布只是其前進路上的一步,未來將有更多消息發布。