AI 日報: Claude Opus 4.7的震撼與爭議,以及OpenAI Codex的全面進化
Claude Opus 4.7的震撼與爭議,以及OpenAI Codex的全面進化 現今,人工智慧的發展腳步令人目不暇給。我們每天都在適應新的工具與技術。老實說,有時候要跟上這些排山倒海的資訊真的讓人喘不過氣。不過,這就是關鍵所在,掌握最新動態能幫助我們更聰明地工作。四月份帶來了幾項震撼業界的消息。從模型升級到引發社群熱議的爭議,再到各大巨頭針對特定領域的精準佈局。接下來,讓我們仔細檢視這些改變將如何影響你我的日常工作。 Claude Opus 4.7 閃亮登場:是能力大躍進,還是變相漲價? Anthropic 本月宣布 Claude Opus 4.7 正式推出,主打在軟體工程方面的卓越表現。它不僅能更嚴謹地處理長時間運行的任務,還擁有比前代高出三倍的視覺解析度。這聽起來很完美,對吧?其實細節藏在魔鬼裡。 許多開發者可能會疑惑:Opus 4.7 到底好不好用?社群論壇 Reddit 上爆發了強烈的質疑聲浪。許多使用者抱怨,Opus 4.7 採用了新的分詞器 (tokenizer),導致相同輸入的 token 消耗量增加了約 1.0 到 1.35 倍(最高達百分之三十五,具體取決於內容類型)。這無疑讓使用者感覺像是一種變相的價格調漲。此外,一項名為 MRCR 的長文本檢索評測數據,居然從 4.6 版本的 78.3% 暴跌至 4.7 版本的 32.2%。雖然 Anthropic 開發人員出面澄清,表示他們更看重實際應用的 Graphwalks 表現,並計畫逐步淘汰 MRCR,但依然難以平息用戶對於模型能力倒退的擔憂。 這時,另一個常見的問題浮出水面:我們該如何面對高達一百萬 token 的龐大上下文視窗?龐大的記憶空間雖然強大,卻也容易造成所謂的上下文腐敗(context rot)。根據 Thariq 在社群平台 X 上的分享,有效管理會話至關重要。當模型開始迷失方向或給出錯誤建議時,果斷使用 /compact 指令來總結對話,或者乾脆開啟新的對話視窗。保留過多不相關的歷史紀錄並非明智之舉,反倒會拖慢模型的推理效率並產生干擾。



