AI 日報: Meta SAM 3.1、Google 學術爭議與 NotebookLM 實用更新
最新 AI 產業動態:Meta SAM 3.1 影像處理大升級與 Google 論文學術爭議探討 每天都有新的技術突破,偶爾也會伴隨著一些意想不到的火花。今天帶來幾個值得關注的重頭戲。Meta 剛剛推出了全新的影像處理模型,效能表現相當驚人。另外,學術界也傳出了一些摩擦,Google 的一篇論文引發了強烈的討論。接下來帶大家一探究竟。 Meta SAM 3.1 登場,影像分割效率全面提升 Meta 最新釋出的SAM 3.1 模型 確實讓人眼睛一亮。你知道嗎?過去要追蹤影片中的多個物件,系統必須為每一個物件單獨進行運算。這就像是餐廳服務生每次只能幫一桌客人點餐,效率自然高不起來。 現在情況大不相同了。SAM 3.1 導入了物件多工處理(Object Multiplexing)技術。這項改動讓模型能夠在單次前向傳遞中,同時追蹤多達 16 個物件。這意味著中等數量物件的影片處理速度直接翻倍,更在單張 H100 GPU 上追蹤多達 128 個物件時,達到了約 7 倍的推論速度提升,且完全沒有犧牲準確度。這種全局推理的設計,徹底消除了多餘的運算與記憶體瓶頸。 這不單單只是速度上的提升而已。由於整體運算資源需求降低,許多高效能的影像處理應用,現在已經可以在更親民的小型硬體上順利運行。對於想要親自測試的開發人員來說,目前可以直接前往Hugging Face 上的 SAM 3.1 專頁 取得模型權重。結合純文字或是視覺提示,這套系統能夠精準處理各種極具挑戰性的影像分割任務。 學術界的震撼彈,RaBitQ 團隊指控 Google 論文不公 技術圈並不總是風平浪靜。最近,RaBitQ 團隊在知乎上發布長文,針對 Google Research 發表於 ICLR 2026 的論文 TurboQuant 提出嚴厲質疑。這裡有個關鍵的問題值得大家反思,那就是學術研究的公平性與透明度。 RaBitQ 團隊明確指出,TurboQuant 論文中使用了與他們高度重疊的隨機旋轉(Random Rotation)量化方法,卻未在正文中進行客觀的對比與標註。更讓人訝異的是實驗環境的設定差異。根據公開的信件紀錄,TurboQuant 團隊在測試 RaBitQ 的效能時,刻意關閉了多執行緒,僅使用單核 CPU 運行,隨後拿來跟自己使用 NVIDIA A100 GPU 跑出來的成績做比較。 這種硬體資源極度不對等的比較方式,自然會產生數個數量級的速度落差。此外,TurboQuant 還被指控在沒有提供任何推導證據的情況下,直接將 RaBitQ 的理論保證貶低為次優結果。這起爭議目前已經正式提交給大會主辦單位,未來的後續發展絕對值得學術界持續關注。



