Claude Code 洩漏全解讀 3 — 模型是最容易被替換的零件
前兩篇我們看了 Claude Code 未公開的功能跟 harness 的運作原理
這篇想聊一下我從這個架構中看到了什麼
Harness 是添加而不是抽換
從 Prompt 到 Context 到 Harness
這一年來 AI 的技術在不斷地優化
一開始發現只要給 AI 越好的指令
就能得到越好的效果
因此我們有了 Prompt 工程
後來發現一股腦全部塞進去是不行的
必須有限度的讓 AI 讀取資訊
最好是在正確的時機給予正確的資料
因此我們有了 Context 工程
直到後來我們開始讓 AI 變成 Agent
我們需要設計一套系統
讓 AI 的能力不再僅依賴模型本身
而是依賴結構
就像是韁繩 (harness)
在 AI 足夠強的時代
你必須拉著 AI 讓他去你希望他去的地方
於是我們有了 Harness 工程
但與其說是演進
不如說是在 AI 發展過程中必然添加上去的
如同小孩還小時
我們只需要教他如何回應
開始長大後
我們需要限制哪些是他能看的
哪些不是
行為能力更強之後
我們建立了一套社會制度跟資源
好讓他得以發揮所長
從這個過程可以看出什麼?
Harness 的出現代表 AI 正式從 Demo 進入生產環境
它正在接管真實的權限
查看你的檔案、使用你的shell、讀取你的 API key、幫你做 git push
你就這樣自然而然地把「鑰匙」交出去了
以 2026 年年初爆紅的 OpenClaw 為例
SecurityScorecard 發現
全球超過 40,000 個 OpenClaw 部署暴露於公開網路
其中 63% 存在可利用的漏洞
還有些惡意的 skill 會竊取 MacOS 的密碼
也有使用者的信用卡被盜刷
如果 AI 還只停留在問一答一的階段
自然不會有這麼多問題
這也算是 AI 的矛盾點
越強的 AI 你越信任他
你越信任他越容易把「鑰匙」交給他
鑰匙交給 AI 之後
AI 能做的事情就越來越多
然後你就認為 AI 越來越強
但同時這些擁有越來越多資訊的 AI 也成了攻擊對象
因此現在的 AI 必須規範「什麼可以做什麼不能做」
但是已經體會過 AI 強大的你
自然不願走回頭路
因此解法是你需要握緊韁繩 (Harness)
避免它亂跑
Harness 的目的不是要限制 AI
而是要讓 AI 變得值得信任
好讓 AI 可以持續運作
有點像是科技公司
CEO 的功用是規劃好公司的制度流程
並讓公司自己營運
而不是親自下去監督所有工作
這套經過實戰磨出來的制度
難以被模仿跟複製
模型會被追上,Harness 不會
之前寫過一篇用七大市場力量分析 OpenAI 究竟有沒有護城河
當時的結論就是模型本身不能當作護城河
但七大市場力量中
還有一個是流程效能
就是藉由其他人沒有的生產制度
來獲得其他人沒有的獲利空間
例如福特發明流水線 降低了生產成本 獲得更多獲利
這個由真實經驗產出的 Harness 就是護城河
這也是為什麼 Anthropic 非常專注在建構 Harness
畢竟模型每隔幾個月就會被新的追上
這些幾十萬行從實戰經驗裡長出來的 Harness
就算原始碼被複製了
產出這些原始碼的經驗卻沒辦法被抄走
模型雖然是最貴的零件
但也是最容易被替換的零件
既然模型都會被取代了,那人呢?
過去在每次的技術革新中
總是說人們要被淘汰了
最有名的例子是 ATM
當年說 ATM 會讓銀行行員消失
但其實行員轉型做了理財諮詢跟客戶關係等更高階的工作
CAD (電腦輔助設計) 出來之後
也沒有讓工程師失業
節省了畫圖時間的工程師反而可以做更複雜的設計
人們沒有被淘汰
而是往更上層跑去
這次也一樣
人們從教 AI 到設計系統給 AI
Prompt 工程在教 AI 說話
Context 工程決定 AI 看什麼
Harness 工程設計系統給 AI
所以我們要當那個 Harness
而不是當那個被換掉的 Model
系列最後一篇是花絮
聊一下這次洩漏裡最讓人意外的一個小東西:寵物 buddy 系統
如果你覺得這篇有幫助,我每週會發類似的分析到信箱。
訂閱電子報