打破語言隔閡與指令限制:ZeroEntropy 推出的 zerank-2 讓搜尋重排序更精準、更便宜

在建構現代化的搜尋系統或 RAG(檢索增強生成)應用時,開發者往往會遇到一個棘手的瓶頸:檢索到的資料很多,但相關性卻參差不齊。這時候,「重排序」(Reranking)這個步驟就顯得至關重要。市面上的選擇雖然不少,但在面對多語言混合或是複雜指令時,現有的模型往往會顯得力不從心。

ZeroEntropy 最新發布的 zerank-2 模型,正是為了填補這個缺口而生。它不僅僅是一個新的重排序工具,更試圖解決生產環境中常見的「模態落差」(modality gap)問題。對於那些正在尋找比 Cohere Rerank 3.5 或 Voyage rerank 2.5 更具魯棒性(Robustness)、且成本更低廉的解決方案的團隊來說,這或許是一個值得關注的新選擇。

聽得懂「指令」的重排序模型

大多數傳統的重排序模型運作方式相當單純,它們主要依賴關鍵字的語義匹配。但現實情況往往沒那麼簡單。使用者可能會要求「只尋找關於 X 的反對意見」或是「忽略某個特定年份之前的數據」。傳統模型很容易忽略這些細微的指令,只顧著把相關的關鍵字撈出來。

zerank-2 的一大亮點在於其**原生指令遵循(Native Instruction-Following)**能力。它能夠理解並執行精確的指令,甚至能夠看懂特定領域的縮寫(Acronyms)。這意味著,當系統接收到使用者的提示詞(Prompt)時,模型會根據上下文來調整排序結果,而不僅僅是做字面上的比對。這讓搜尋結果更貼近使用者的真實意圖,減少了人工後處理的麻煩。

真正跨越語言障礙,包含「晶晶體」

在全球化的應用場景中,多語言支援是基本功,但能做好的卻不多。很多模型在處理英語以外的查詢時,效能會顯著下降,或者在面對混合語言(Code-switching)時不知所措。

想像一下,在台灣或印度,人們說話時常會夾雜英文單字(例如 Spanglish 或 Hinglish,以及台灣常見的中英夾雜)。zerank-2 在這方面展現了強大的適應力,它在訓練時涵蓋了超過 100 種語言,並且針對這種混合語言的使用情境進行了優化。即便是在非英語的查詢中,它的表現依然穩定,真正做到了多語言的平權,讓非英語系的開發者不再需要忍受次一等的搜尋體驗。

分數不再是「快樂錶」:可信賴的信心評分

對於工程師來說,最頭痛的問題之一就是模型輸出的分數「僅供參考」。很多時候,模型給出 0.9 的相關性分數,但實際上內容卻只有 0.6 的相關度。這種**任意分數(Arbitrary Score)**的問題,導致開發者很難設定一個可靠的閾值(Threshold)來過濾雜訊。

zerank-2 在這方面做了顯著的改進,提供了校準後的信心分數(Calibrated Confidence Scores)。簡單來說,如果這個模型給出 0.8 的分數,那麼這筆資料大約就有 80% 的機率是真正相關的。這讓開發者可以放心地設定自動化流程,不用再憑感覺去猜測哪個分數才是安全的過濾線。這在自動化程度高的生產環境中,是一個極為實用的特性。

處理複雜邏輯與 SQL 風格查詢

除了語義理解,zerank-2 還具備處理結構化邏輯的能力。這也是許多純語義模型容易跌跤的地方。當查詢涉及到聚合(Aggregation)或是類似 SQL 的邏輯時,例如「列出前 10 大客戶的反對意見」或是「按延遲時間由快到慢排序」,普通模型往往無法正確理解這種數量或排序的邏輯。

zerank-2 展現了對這類 SQL 風格查詢的魯棒性(Robustness)。它能夠理解數量、排序和篩選的邏輯,確保輸出的結果不僅僅是內容相關,還符合使用者要求的結構或順序。這對於需要處理數據分析或複雜問答的企業級應用來說,大大提升了實用性。

價格與效能的甜蜜點

技術規格再好,成本終究是考量的關鍵。ZeroEntropy 直接瞄準了市場上的主要競爭對手。根據官方說法,zerank-2 在魯棒性(Robustness)上優於 Cohere Rerank 3.5 和 Voyage rerank 2.5 等專有模型,但在價格上卻便宜了 50%。

目前 zerank-2 的定價為每 100 萬個 Token 僅需 0.025 美元。對於需要處理大量數據索引和檢索的企業來說,這樣的定價策略無疑具有極大的吸引力。目前該模型已經可以透過 ZeroEntropy API 直接使用,並且在 HuggingFace 上公開了模型卡片(Model Card),供開發者深入研究。


常見問題解答 (FAQ)

Q1:zerank-2 與傳統的重排序模型最大的不同是什麼?

最大的不同在於它具備「原生指令遵循」能力與「校準後的信心分數」。傳統模型多半只能進行語義相似度比對,但 zerank-2 可以理解複雜的指令(如特定領域術語或邏輯排序),並且其輸出的分數具有實際的機率意義,讓開發者能更精準地設定過濾門檻。

Q2:zerank-2 支援哪些語言?對於中英夾雜的內容處理效果如何?

zerank-2 訓練時涵蓋了超過 100 種語言,實現了真正的多語言平權。特別值得一提的是,它針對代碼切換(Code-switching)現象進行了優化,因此對於台灣常見的中英夾雜(晶晶體)或是其他語言混合的查詢,都能夠準確理解並進行重排序。

Q3:使用 zerank-2 的成本如何?

zerank-2 的定價相當具有競爭力,每 100 萬個 Token 的費用為 0.025 美元。與市場上其他領先的專有模型(如 Cohere 或 Voyage 的同級產品)相比,價格大約便宜了 50%,非常適合需要大規模部署的生產環境。

Q4:什麼是「校準後的信心分數」,為什麼它很重要?

一般的重排序模型給出的分數往往是相對的,0.9 分並不代表真的有 90% 的準確率。但 zerank-2 的分數經過校準,0.8 的分數就代表約有 80% 的相關性。這讓開發者可以設定固定的閾值(例如只取 0.7 以上的結果),而不必擔心模型在不同查詢下的分數標準不一,從而提高系統的穩定性。

Q5:這個模型適合處理數據型的查詢嗎?

是的,zerank-2 對於 SQL 風格或聚合類的查詢有很好的支援。例如「按速度排序」或「列出前幾名」這類涉及邏輯判斷的要求,它比一般只懂語義的模型表現得更為出色。


欲了解更多技術細節,可參考 ZeroEntropy 的 HuggingFace 模型卡片 或閱讀他們關於基準測試的詳細文章

分享至:

© 2025 Communeify. All rights reserved.