2026 年開春,AI 產業迎來了幾場重頭戲。OpenAI 正式推出專為醫療設計的「ChatGPT 健康」,試圖將 AI 助理轉變為每個人的隨身健康顧問;與此同時,Google 的 Gemini 在流量上大有斬獲,並針對開發者釋出了強大的 CLI Skills 更新。然而,在技術狂奔的背後,資安陰影揮之不去——近百萬用戶的 Chrome 擴充功能遭植入惡意程式,竊取了大量的 AI 對話紀錄。本文將帶你深入解析這些變革,並探討 Liquid AI 如何透過「端側處理」來重新定義隱私標準。
AI 助理不再只是聊天:ChatGPT 轉身成為你的健康管家
大家是否曾經有過這樣的經驗:拿著剛出爐的健檢報告,看著上面滿滿的紅字和專有名詞,卻完全不知道該從何下手調整生活習慣?OpenAI 顯然看到了這個痛點。就在本週,他們隆重推出了「ChatGPT 健康」,這不僅僅是一個新功能,更像是一個被嚴密保護的「數位診間」。
這項功能的推出,標誌著 AI 正式深入我們最私密的領域。不同於以往將健康數據隨意丟給通用模型,「ChatGPT 健康」建立了一個獨立的加密空間。這意味著,你在這裡討論的病情、上傳的電子病歷(EHR),甚至是串接 Apple Health 或 MyFitnessPal 的數據,都不會被用來訓練那個負責寫詩或寫程式的通用模型。
為什麼這很重要? 過去我們總是擔心將個人健康數據餵給 AI 會導致隱私外洩,但 OpenAI 這次引入了符合醫療產業最高資安標準(由於原文中未提到是否為HIPAA或是提供那些標準,所以在此保留)。你可以想像它是一個擁有豐富醫學知識,且口風極緊的顧問。它能幫你分析血液檢查結果、解釋複雜的醫療保險方案,甚至在你去看醫生前,幫你整理好該問的問題。
為了確保專業性,OpenAI 與全球超過 260 位醫師合作開發了 HealthBench 評測框架。這套標準不像傳統考試那樣只看正確率,而是模擬臨床情境,評估 AI 的建議是否安全、語氣是否恰當。當然,這裡要畫個重點:它不會取代醫生,它的角色是輔助,讓你對於自己的身體狀況更有掌握感。
市場版圖大洗牌:Gemini 流量飆升與開發者的新玩具
當 OpenAI 忙著照顧用戶健康的同時,搜尋引擎巨人 Google 也沒閒著,而且戰果豐碩。根據 Similarweb 的最新數據,AI 流量戰場在 2026 年初出現了顯著的板塊移動。
雖然 ChatGPT 仍然是老大,但其市占率已經跌破了 65% 的關卡。反觀 Google 的 Gemini,憑藉著強大的生態系整合,市占率已經突破 20%。這是一個重要的訊號,顯示使用者開始尋求替代方案,或是更習慣於 Google 所提供的整合服務。就連馬斯克的 Grok 也悄悄爬升至 3% 以上,緊追在 DeepSeek 之後。
開發者的福音:Gemini CLI Agent Skills Google 顯然知道要留住用戶,得先留住開發者。Gemini CLI 推出了一個令人興奮的預覽功能——Agent Skills。這功能解決了一個長期以來的痛點:如何讓 AI 擁有「特定領域」的專業,卻又不會讓對話視窗被一堆無關的背景資料塞爆?
這就像是為你的 AI 助理安裝「技能包」。想像一下,你的團隊有一套獨特的程式碼審查(Code Review)流程,過去你可能每次都要把規則貼給 AI。現在,你可以將這些規則打包成一個 Skill。當 Gemini 偵測到你需要審查程式碼時,它會自動「喚醒」這個技能,載入相關的腳本和指引。這不僅讓 AI 反應更精準,也大幅節省了 Token 的消耗,讓開發流程變得極度絲滑。
資安警報:小心你的 AI 對話正在被竊聽
就在 AI 工具變得越來越好用的同時,駭客的手法也跟著進化了。最近 OX Security 發布了一項嚴重警報,指出 Chrome 線上應用程式商店中出現了兩個偽裝得極為完美的惡意擴充功能,已經有超過 90 萬名用戶受害。
這兩個擴充功能分別名為「Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI」以及「AI Sidebar with Deepseek…」。它們打著「AITOPIA」這家合法公司的名號,模仿了合法的側邊欄功能,讓你可以在瀏覽網頁時隨時呼叫 AI。
魔鬼藏在細節裡 這類攻擊最可怕的地方在於「功能正常」。你安裝後,確實能用它來聊天,但在背景運作的程式碼,卻悄悄地利用「讀取所有網站內容」的權限,監控你是否開啟了 ChatGPT 或 DeepSeek 的網頁。一旦偵測到,它就會側錄你的所有對話紀錄——這可能包含了公司的商業機密、程式碼,甚至是你的私人隱私——並每隔 30 分鐘打包傳送回駭客的伺服器。
更諷刺的是,其中一個惡意程式甚至還獲得了 Google 的「精選(Featured)」標章,這讓一般使用者幾乎完全卸下心防。這也提醒了我們:在安裝任何「好用」的 AI 工具前,務必再三確認來源,且盡量減少授權不必要的瀏覽器權限。
隱私的另一條出路:端側 AI 與 Liquid AI 的嘗試
既然雲端有被駭的風險,那把 AI 鎖在自己的電腦裡跑總行了吧?這正是 Liquid AI 正在做的事情。在今年的 CES 上,他們與 AMD 聯手展示了一種全新的會議摘要解決方案。
很多企業禁止員工使用雲端 AI 來整理會議紀錄,原因很簡單:會議內容往往涉及最高機密。Liquid AI 推出的 LFM2-2.6B 模型,主打「完全本地端執行」。這意味著,不管你們在會議中討論了什麼驚天動地的商業決策,這些語音轉文字的數據連你筆電的網卡都不會經過,直接在設備上的 NPU 或 GPU 消化完畢。
這不僅僅是為了安全,也是為了效率。測試數據顯示,處理一個一小時的會議紀錄,這套系統只需要 16 秒,而且記憶體佔用極低,處理一小時的會議僅需約 2.7 GB 記憶體,這意味著即使是一般的商務輕薄筆電也能流暢運行。這種「端側 AI」(On-device AI)的趨勢,或許將成為 2026 年企業導入 AI 的標準配備,徹底解決隱私與便利性之間的兩難。
常見問題解答 (FAQ)
Q1: 使用「ChatGPT 健康」時,我的醫療數據會被拿去訓練 AI 嗎? 這點你可以放心。OpenAI 特別強調,「ChatGPT 健康」擁有專屬的獨立空間與加密機制。你在這個模式下的所有對話、上傳的病歷檔案,以及連結的 Apple Health 數據,都不會被用於訓練 OpenAI 的基礎模型。這與一般的 ChatGPT 對話是完全隔離的。
Q2: 我該如何確認自己是否安裝了惡意的 Chrome 擴充功能? 請立即檢查你的瀏覽器擴充功能列表。如果你看到名為「Chat GPT for Chrome with GPT-5…」或「AI Sidebar with Deepseek…」的程式,請立刻移除。此外,建議前往 Google 帳戶設定中,檢查是否有不明的應用程式連結授權。未來安裝擴充功能時,即便看到「精選」標章,也建議先搜尋開發者名稱,確認是否為官方發布。
Q3: Gemini CLI 的 “Skills” 功能跟一般的 Custom Instructions 有什麼不同? 主要的差別在於「情境感知」與「資源整合」。Custom Instructions 比較像是一個通用的背景設定,一直掛在對話中;而 Agent Skills 則是「按需載入」。Gemini 會根據你的需求(例如需要 Code Review 或部署雲端),自動判斷該啟用哪個 Skill。此外,Skill 還可以包含具體的腳本(Scripts)和參考文件,讓 AI 能執行更複雜、步驟更明確的專業任務。
Q4: Liquid AI 的本地會議摘要功能需要很強的電腦才跑得動嗎? 根據 Liquid AI 的說法,他們的 LFM2-2.6B 模型經過高度優化,處理 10K token(約一小時會議)的長度時,僅需佔用約 2.7GB 的記憶體。這意味著現今主流配備 16GB 記憶體的 AI PC 都能輕鬆運行,不需要昂貴的伺服器等級硬體。


