news

AI 日報: Excel 終於迎來 AI 大腦,OpenAI 揭密 8 億用戶背後的資料庫架構

January 24, 2026
Updated Jan 24
1 min read

老實說,這週的 AI 圈子發生了一些非常「接地氣」的大事。

我們習慣了看到那些飄在雲端的模型更新,但這一次,Anthropic 直接把手伸進了我們最熟悉的辦公軟體 Excel 裡,這可能會徹底改變我們處理報表的方式。另一方面,OpenAI 也罕見地公開了他們的工程細節,告訴大家他們是如何用傳統的資料庫扛住 8 億用戶的流量。

不管是你每天面對的試算表,還是後端工程師頭痛的擴展問題,今天的內容都很有料。我們甚至還有一個開源音樂模型要介紹給你。準備好了嗎?我們開始吧。

Claude 正式進駐 Excel:這不僅僅是聊天機器人

你是否也有過這種經驗?看著一份充滿複雜公式的 Excel 表格,完全不知道前手同事到底在算什麼,或者因為一個 #REF! 錯誤搞得焦頭爛額。

Anthropic 剛剛發布了 Claude in Excel 的預覽版,這對許多整天與數據為伍的人來說,簡直是救星。

這不是那種掛在旁邊只能回答通用問題的聊天視窗。Claude 現在能理解你的「整個工作簿」。它看得懂那些巢狀公式,也明白不同分頁之間的數據依賴關係。

這意味著什麼?

當你問它「這個單元格的數字是怎麼算出來的?」它不會給你一段模糊的廢話,而是會提供精確到單元格的引用解釋。你可以要求它更新某些假設條件,Claude 會在保留原始公式結構的前提下,幫你調整模型。

對於財務分析師或數據專員來說,這功能非常強大。它甚至能幫你除錯。那些讓人崩潰的 #VALUE! 或循環參照錯誤,Claude 能在幾秒鐘內找出源頭並教你修復。

目前這個功能已經針對 Claude Pro、Max、Team 和 Enterprise 用戶開放 Beta 測試。如果你是重度 Excel 用戶,去 Claude in Excel 看看,這可能會是你今年最值得安裝的插件。

OpenAI 的工程奇蹟:用 PostgreSQL 支撐 8 億用戶

聊完前端應用,我們來看看後端的硬核工程。

你想過 ChatGPT 背後的資料庫是怎麼運作的嗎?要支撐全球 8 億用戶,還要應對從 ChatGPT 到 API 的海量請求,你可能會以為他們用了什麼神祕的黑科技資料庫。

結果 OpenAI 告訴我們:他們用的是 PostgreSQL。

OpenAI 最新的工程部落格中,他們詳細記錄了這段擴展之路。這真的是一場與流量的搏鬥。他們的 Postgres 負載在過去一年增長了 10 倍以上。

為了扛住這種壓力,他們並沒有急著把所有東西都拆分(Shard)。相反,他們將單個主節點(Primary)的效能榨到了極致,並搭配了將近 50 個唯讀副本(Read Replicas)。

這聽起來很瘋狂,對吧?單一寫入節點怎麼可能撐得住?

OpenAI 的策略非常聰明。他們發現雖然讀取量巨大,但寫入量相對可控。於是他們做了大量的查詢優化,比如抓出那些不僅慢還會吃光 CPU 的複雜 Join 查詢,強迫將邏輯移到應用層處理。

還有一個關鍵技術叫做「連線池」(Connection Pooling)。他們使用 PgBouncer 來管理資料庫連線,把平均連線時間從 50 毫秒壓到了 5 毫秒。這就像是在高速公路收費站前設了 ETC,車流瞬間順暢了。

當然,他們也並非完全不拆分。對於那些寫入量特別大的工作負載,他們確實遷移到了 Azure CosmosDB。但這個案例告訴我們,傳統關聯式資料庫的潛力遠比我們想像的要大,只要你的工程架構足夠紮實。

揭開 Agent 的神秘面紗:Codex 是如何思考的?

既然談到了 OpenAI 的工程實力,他們最近還開啟了一個新的技術解析系列,專門講解 Codex 的運作原理。

第一篇文章 Unrolling the Codex agent loop 其實非常有趣,它解釋了所謂的「AI Agent」(代理人)到底是如何在你的電腦上執行任務的。

我們常說 AI 能幫你寫程式、改檔案,但這中間發生了什麼?

核心在於一個「迴圈」(Loop)。當你給 Codex 一個指令,例如「幫我把這個圖表加到 README 裡」,模型並不是一次就做完。它會進入一個推理階段,決定是否需要呼叫工具(比如執行一個 Shell 指令來讀取檔案),,。

如果有必要,它會執行工具,然後把工具執行的結果(比如檔案內容或錯誤訊息)再餵回給模型。這個「觀察 -> 思考 -> 行動」的過程會不斷重複,直到模型認為任務完成,最後給你一個回應,。

HeartMuLa:開源音樂生成的全能選手

最後,讓我們從嚴肅的程式碼切換到創意領域。

現在市面上有 Suno 和 Udio 這樣的音樂生成巨頭,但它們都是閉源的。如果你想自己掌控模型,或者做更細緻的調整呢?

這時候你需要關注一下 HeartMuLa。這是一個剛剛開源的音樂基礎模型家族,它的野心很大,試圖在音樂理解和生成上建立一個完整的生態系。

HeartMuLa 不僅僅是生成音樂,它由四個核心部分組成:

  1. HeartCLAP:負責聽懂你對音樂的文字描述,建立文字與音訊的關聯。
  2. HeartCodec:一個高保真度的音樂解碼器,能捕捉音樂的細節。
  3. HeartTranscriptor:專門用來辨識歌詞的模型。
  4. HeartMuLa:最後才是這個負責生成的大腦。

最讓我感興趣的是它的「可控性」。你可以針對歌曲的不同段落(如前奏、主歌、副歌)分別下達風格指令,這比單純輸入一段文字然後聽天由命要實用得多。它甚至支援多種語言,包括中文、英文和日文、韓文以及西班牙文。

對於創作者或研究人員來說,這是一個很好的起點。你可以到他們的 GitHub 去下載模型權重,自己架設來玩玩看。

HeartMuLa Huggingface space HeartMuLa Github 論文


常見問題解答 (FAQ)

Q:Claude in Excel 安全嗎?我的數據會被拿去訓練嗎? A:這取決於你的訂閱方案。Claude in Excel 是針對 Enterprise 和 Team 等付費計畫推出的。根據 Anthropic 的政策,企業版的數據通常不會被用於訓練模型,且享有較高的隱私保護。但建議在使用前詳閱你的公司合約或 Anthropic 的隱私條款。

Q:OpenAI 為什麼不直接一開始就對資料庫進行分片(Sharding)? A:分片雖然能擴展寫入能力,但會帶來巨大的維護複雜度。OpenAI 在文章中提到,分片需要修改數百個應用程式端點,可能耗時數月甚至數年。對於以讀取為主的負載,優化單一主節點配合讀取副本(Read Replicas)是更具成本效益且穩定的短期策略。

Q:HeartMuLa 可以在一般的家用電腦上運行嗎? A:可以。HeartMuLa 提供了 3B 參數版本。若您的顯卡記憶體有限,HeartMuLa 官方提供了一個 –lazy_load(懶加載)功能,可以讓模組「按需加載」並在使用後釋放記憶體,這讓單張 GPU 的用戶也能更順暢地運行。

Q:什麼是 AI Agent 的「迴圈」(Loop)?以及如何管理記憶體? A: 迴圈是「觀察 -> 思考 -> 行動」的過程。為了管理記憶體,OpenAI 使用了兩種策略:一是 Prompt Caching,透過快取不變的指令來加速運算;二是 Compaction(壓縮),當對話過長時,會自動將舊的對話歷史壓縮成摘要,以釋放上下文視窗空間。

分享至:
Featured Partners

© 2026 Communeify. All rights reserved.