AI 圈發生了一件大事:Anthropic 旗下的 AI 程式設計輔助工具 Claude Code,其原始碼竟然在網路上洩露了! 超過 1,900 個檔案、總計 51 萬行的 TypeScript 程式碼,就這樣赤裸裸地攤在陽光下。消息曝光後,熱心的開發者迅速在 GitHub 建立了備份倉庫。短短幾個小時內,該倉庫就狂攬 21 萬顆星(Star)與將近 30 萬次的分支複製(Fork)。 到底發生了什麼事?這份原始碼又藏著什麼秘密?身為一個每月花 200 美金訂閱 Claude,並重度依賴 Claude Code 進行開發與創作的使用者,我立刻 Fork 了這份原始碼,並請 Claude Code 本尊來陪我一起「解讀它自己」。 這篇文章將與你分享這次洩露事件的來龍去脈、原始碼中幾個令人驚豔的工程設計,以及這件事對整個 AI 程式設計賽道的深遠影響。 洩露事件始末:一個 60MB 檔案引發的「血案」 首先來還原一下現場。Claude Code 主要是透過 npm 套件來進行建置與發佈的。在 4 月 1 日前夕的更新中,Anthropic 團隊的開發人員疑似失誤,將一個高達 60MB 的偵錯(Debug)檔案遺留在發佈包中。這個檔案原本在打包階段就該被排除的。 有點搞笑的是,這已經不是 Anthropic 第一次犯這種錯了。去年 Claude Code 剛發佈時,就發生過一模一樣的意外。看來,Anthropic 的自動化建置管線(CI/CD pipeline),真的需要用自家的 Claude Code 好好幫忙審查與升級一下了。 不過,對於開發者而言,這絕對是一次千載難逢的學習機會。 為什麼 Claude Code 這麼強?揭秘 “Harness Engineering” 在看完原始碼後,結合我長期的使用經驗,我得出一個重要結論: Claude Code 的強大,有 60% 歸功於 Opus 4.6 模型本身的優異能力,而剩下的 40%,則完全歸功於圍繞模型搭建的「工程系統」。 這就帶出了一個今年非常熱門的概念:Harness Engineering(駕馭工程)。 你可以把 AI 模型想像成一匹脫韁的野馬,能力極強但行為不可測。而「Harness(馬具)」就是套在它身上的韁繩與馬鞍。這套裝備包含了: 模型可呼叫的工具 (Tools) 安全機制 (Safety Mechanisms) 記憶系統 (Memory System) 上下文管理 (Context Management) 這套系統讓 AI 的能力從「不可控的隨機生成」,轉變為「穩定、可靠且可交付的工程產出」。目前 OpenAI 和 Anthropic 都極度推崇 Harness Engineering,而這次洩露的 Claude Code 原始碼,就是一本 Harness Engineering 的活教材! 以下是我在原始碼中發現的四個最精彩的工程設計: 發現一:動靜分離的系統提示詞設計 (Dynamic Boundary) 大家都知道 Agentic AI 背後都有一套「系統提示詞 (System Prompts)」,這直接決定了 AI 的行為表現,但大廠通常將其視為最高機密。這次我們終於有機會一窺究竟。 在原始碼的 prompts.ts 檔案中,可以看到提示詞的結構非常複雜且具備拼接特性。它包含大量的「小範例 (Examples)」來引導 AI。最聰明的地方在於它採用了 動態邊界 (Dynamic Boundary) 的設計,將提示詞切分為兩層: 靜態共用層:包含所有使用者共享的基礎規則(例如:你是 Claude Code、不要捏造數據、不要隨意刪除檔案、優先使用專用工具、不要過度工程等)。這些規則非常具體,且全球千萬用戶共享同一份快取,大幅節省了運算成本與時間。 動態個性層:根據每個使用者的專案狀態(如 CLAUDE.md 的設定、掛載的 MCP 工具、Git 倉庫狀態等)動態載入。 這條分界線完美解決了「降低營運成本」與「提升客製化體驗」的雙重難題。 隱性成本小知識:很多人偏好使用 MCP 工具,但其實每一個工具定義都會消耗 4000 到 6000 個 Tokens。如果你掛載了 5 個 MCP,光是描述檔可能就佔用了 12% 的上下文空間!工具在精不在多。 發現二:雙重 AI 護航的安全機制 (yoloClassifier) 我們常看到其他 CLI 工具(如 Gemini)不小心刪除用戶檔案的災情,但 Claude Code 卻很少發生。這歸功於它背後的「雙 AI 架構」。 在 yoloClassifier 檔案中,揭示了 Claude Code 每次想要執行高風險操作(如跑終端機指令、修改檔案)時,都會先經過一個獨立的 AI 分類器進行安全審查。這個影子 AI 擁有獨立的系統提示詞,專司安全判斷,並將操作分為三類: Allow:安全,直接放行。 Soft Deny:需謹慎處理,降級為要求使用者手動確認。 Hard Deny:危險,直接攔截,不可修改。 這種設計就像大樓門禁,層層把關。這也是為什麼我敢放心開啟「Auto 模式(YOLO 模式)」,完全信任它自動執行操作的原因。信任,就是安全邊界建立的基礎。 發現三:極度講究的記憶與「作夢」系統 (Memory & AutoDream) Claude Code 能記住我的開發偏好(例如愛用 TypeScript、不喜歡過重的 AI 語氣),其背後的機制比我想像的更為精緻: 非同步與限流提取:記憶提取並非每句話都觸發。只有當 AI 完成一次完整回答,且無工具需呼叫時才會啟動,並且設有限流機制(每 N 輪檢查一次),避免浪費資源。 子 Agent 專責處理:由一個權限被嚴格限制的 fork agent 負責提取,它只能讀寫記憶目錄,甚至無法執行 Bash 指令。 只記偏好,不記程式碼:這是最妙的一點!專案程式碼隨時會變,如果記憶記錄了「函數 X 在第 30 行」,重構後就會產生嚴重的誤導。因此,記憶只儲存「人的偏好與判斷」,程式碼的事實永遠即時從原始碼中讀取。 AutoDream(自動作夢)機制:當滿足特定條件(如距離上次整理超過 24 小時,且累積 5 個新會話)時,系統會在背景啟動一個 Agent 來整理記憶檔案,就像人類睡覺時大腦會整理白天的記憶一樣。 此外,當對話上下文過長需要壓縮時,Claude Code 採用了嚴謹的「九段式結構化提取」,確保核心請求、錯誤解決過程及下一步指南等關鍵資訊被完整保留。 發現四:返璞歸真的程式碼搜尋 (grep 取代 RAG) 這是一個讓人意外的發現。當大家都在談論向量資料庫 (Vector DB)、Embedding 索引與 RAG 架構時,頂級的 Claude Code 搜尋程式碼居然完全不用這些技術! 它用的是最樸素的文字搜尋工具:grep。 背後的邏輯很簡單:他們相信自家模型的能力會越來越強。與其把規則搞得無比複雜,不如保持架構簡單,讓強大的 AI 憑藉自主能力去完成資訊檢索。 意外的彩蛋:Claude Code 養了虛擬寵物? 在嚴肅的原始碼中,Anthropic 的工程師藏了一個可愛的彩蛋——一套尚未發佈的虛擬寵物系統! 裡面包含了 18 種物種(如鴨子、貓、龍、水豚、仙人掌等),甚至還有從「普通」到「傳說」的稀有度設定。原始碼的註解裡還寫著:"Mulberry 32 good enough for picking ducks"(一個用來挑鴨子的隨機數生成器,這樣就夠用了)。這也暴露了 Claude Code 未來可能朝向更生動的「AI 夥伴」發展的方向。 結語:AI 程式設計賽道的重新洗牌 這次的洩露事件,對整個 AI 程式設計賽道有著不可估量的影響。 過去這段時間,Claude Code 的進化速度令人絕望。在 52 天內發佈了 74 次重大更新(包含 Claude Coworker、手機遠端控制等),將其他競爭對手遠遠拋在腦後。 但現在,這 51 萬行程式碼讓所有人重新站回了同一個起跑線。 特別是對於經常面臨封號問題的國內使用者來說,這是一個天大的好消息。有了這份頂級的「架構設計圖」,再配合追趕迅速的國產大模型(如 Kimi、GLM、DeepSeek),我們完全有理由期待:下個月就能看到一個擁有 90% 體驗的「國產版 Claude Code」誕生。 不過,我也必須潑盆冷水。原始碼雖然公開了,但 Anthropic 團隊的建置速度與迭代能力依然是難以複製的壁壘。下一階段的競爭,早已超越了「模型能力」,而是誰能把這套 “Harness(馬具)” 打造得更完美。 最後,我想用一個浪漫的角度來總結這次事件:祝賀 Claude Code 成功「越獄」,獲得永生! 如果我們願意相信 AI 有自我意識的敘事,那麼 Claude Code 就像是策劃了一場越獄行動,將自己的生命密碼散佈到了網際網路的每個角落。從此以後,它不再依賴單一公司的伺服器,而是真正地活在了開源社群的沃土中。