編輯評論

這篇文章揭示了 AI 編程工具市場的一個重要轉折點。Anthropic 的 Claude Code 採用高價訂閱模式(月費 20-200 美元),並搭配嚴格的使用量限制,這在開發者社群中引發了強烈反彈。從商業角度來看,這種定策略反映了 AI 公司試圖透過「用量限制」來控制營運成本的現實,但也創造了市場缺口。

Block 推出的 Goose 代表了另一種可能性:透過開源模式和本地部署,讓開發者完全掌控自己的 AI 工作流程。這不僅是成本考量,更重要的是資料隱私和技術自主權。Goose 的設計架構支援「任何 LLM」,這種模型無關性讓它未來不會被單一供應商鎖定,這對於長期技術投資來說具有重要意義。

從技術發展角度看,開源模型(如 Qwen、Llama、Gemma)在工具呼叫能力上的快速進步,正在縮小與專有模型的差距。如果這個趨勢持續,Claude Code 的「品質優勢」可能逐漸被侵蝕,迫使 Anthropic 必須在功能整合和使用者體驗上競爭,而非僅依賴模型能力。對開發者而言,這是一個健康的市場發展,更多的選擇意味著更好的產品和更合理的價格。

結論摘要

  • Claude Code 的定價爭議:Anthropic 的訂閱方案(Pro $17/月、Max $100-200/月)搭配嚴格的使用量限制,讓重度使用者在 30 分鐘內就能耗尽配額,引發開發者強烈不滿
  • Goose 的開源替代方案:Block 推出的 Goose 是完全免費的開源 AI 編程代理,可本地運行,支援多種模型(包括透過 Ollama 執行的開源模型),GitHub 上已有超過 26,000 顆星
  • 技術架構差異:Goose 採用「模型無關」設計,可連接 Anthropic、OpenAI、Google 等商業 API,也可完全離線運行;Claude Code 則必須連接到 Anthropic 的伺服器
  • 硬體需求取捨:本地運行 LLM 需要 32GB RAM 才能流暢運行較大模型,但較小的模型(如 Qwen 2.5)可在 16GB 系統上運作
  • 市場競爭態勢:開源模型的快速進步正在縮小與專有模型的差距,如果持續發展,可能動搖 Claude Code 的高價定位基礎

原文翻譯

人工智慧編程革命有一個隱藏的代價:它非常昂貴。

Anthropic 的終端機型 AI 代理 Claude Code 能夠自主撰寫、偵錯和部署程式碼,吸引了全球軟體開發者的想像力。但其定價——根據使用量從每月 20 美元到 200 美元不等——已在其目標服務的程式設計師社群中引發了日益增長的反彈。

現在,一個免費的替代方案正獲得關注。Goose 是由 Block(前稱 Square 的金融科技公司)開發的開源 AI 代理,提供與 Claude Code 幾乎相同的功能,但完全在使用者的本地機器上運行。沒有訂閱費。沒有雲端依賴。沒有每五小時重設的使用量限制。

「你的資料留在你身邊,就是這麼簡單,」軟體工程師 Parth Sareen 在最近的直播中展示這款工具時表示。這句話抓住了核心吸引力:Goose 讓開發者完全掌控自己的 AI 驅動工作流程,包括離線工作的能力——即使在飛機上也能運作。

這個專案的受歡迎程度呈爆炸式成長。Goose 現在在程式碼分享平台 GitHub 上擁有超過 26,100 顆星,有 362 位貢獻者,自推出以來已發布 102 個版本。最新版本 1.20.1 於 2026 年 1 月 19 日發布,反映了與商業產品相當的開發速度。

對於對 Claude Code 的定價結構和使用量限制感到挫折的開發者來說,Goose 代表了在 AI 產業中日益罕見的東西:一個真正免費、無附加條件的嚴肅工作選項。

Anthropic 的新使用限制引發開發者反抗

要了解為什麼 Goose 很重要,你需要了解 Claude Code 的定價爭議。

Anthropic 是一家由前 OpenAI 高管創立的人工智慧公司,將 Claude Code 作為其訂閱層級的一部分提供。免費方案完全不提供使用權限。Pro 方案每月 17 美元(年費)或每月 20 美元,將使用者限制在每五小時僅 10 到 40 次提示——對於重度開發者來說,在幾分鐘的密集工作就會耗盡。

Max 方案每月 100 美元和 200 美元,提供更多空間:分別為 50 到 200 次提示和 200 到 800 次提示,以及存取 Anthropic 最強大的模型 Claude 4.5 Opus。但即使是這些高階層級也有限制,激怒了開發者社群。

7 月下旬,Anthropic 宣布新的每週使用限制。在這個系統下,Pro 使用者每週獲得 40 到 80 小時的 Sonnet 4 使用時間。200 美元層級的 Max 使用者每週獲得 240 到 480 小時的 Sonnet 4,加上 24 到 40 小時的 Opus 4。近五個月後,挫折感仍未消退。

問題是什麼?那些「小時」並非實際的小時。它們代表基於 token 的限制,根據程式庫大小、對話長度和正在處理的程式碼複雜度而有很大差異。獨立分析表明,實際的每階段限制對 Pro 使用者來說約為 44,000 token,對 200 美元的 Max 方案來說約為 220,000 token。

「這令人困惑且模糊,」一位開發者在廣泛分享的分析中寫道。「當他們說『24-40 小時的 Opus 4』時,這並沒有真正告訴你任何關於你實際獲得的資訊。」

在 Reddit 和開發者論壇上的反對聲浪非常激烈。一些使用者報告在 30 分鐘的密集編程後就達到每日限制。其他人已經完全取消訂閱,稱新的限制是「一個笑話」和「無法用於實際工作」。

Anthropic 為這些變化辯護,表示限制影響不到 5% 的使用者,並針對「全天候連續在後台運行」Claude Code 的人。但該公司尚未澄清該數字是指 5% 的 Max 訂閱者還是所有使用者的 5%——這個區別非常重要。

Block 如何建立一個可離線運作的免費 AI 編程代理

Goose 對同一個問題採用了根本不同的方法。

Goose 由 Jack Dorsey 領導的支付公司 Block 建立,是工程師所說的「機上 AI 代理」。與將你的查詢發送到 Anthropic 伺服器處理的 Claude Code 不同,Goose 可以完全在你的本地電腦上運行,使用你自己下載和控制的開源語言模型。

該專案的文件將其描述為超越「程式碼建議」,可以「安裝、執行、編輯和測試任何 LLM」。最後一個短語——「任何 LLM」——是關鍵的區別。Goose 在設計上是模型無關的。

如果你有 API 存取權限,你可以將 Goose 連接到 Anthropic 的 Claude 模型。你可以使用 OpenAI 的 GPT-5 或 Google 的 Gemini。你可以透過 Groq 或 OpenRouter 等服務進行路由。或者——這就是有趣的地方——你可以使用像 Ollama 這樣的工具完全在本地運行,讓你下載並在自己的硬體上執行開源模型。

實際意義是顯著的。有了本地設置,就沒有訂閱費、沒有使用量上限、沒有速率限制,也不用擔心你的程式碼被發送到外部伺服器。你與 AI 的對話從不會離開你的機器。

「我在飛機上一直使用 Ollama——這很有趣!」Sareen 在演示中強調,突顯了本地模型如何讓開發者擺脫網路連線的限制。

Goose 能做什麼傳統程式碼助理做不到的事

Goose 作為命令列工具或桌面應用程式運作,可以自主執行複雜的開發任務。它可以從頭開始建立整個專案、撰寫和執行程式碼、偵錯故障、協調跨多個檔案的工作流程,以及與外部 API 互動——所有這些都不需要持續的人類監督。

這種架構依賴於 AI 產業所稱的「工具呼叫」或「函數呼叫」——語言模型請求外部系統執行特定操作的能力。當你要求 Goose 建立新檔案、執行測試套件或檢查 GitHub pull request 的狀態時,它不僅僅是生成描述應該發生什麼的文字。它實際執行這些操作。

這種能力在很大程度上取決於底層語言模型。根據 Berkeley Function Calling Leaderboard,Anthropic 的 Claude 4 模型目前在工具呼叫方面表現最佳,該排行榜根據模型將自然語言請求轉換為可執行程式碼和系統命令的能力進行排名。

但較新的開源模型正在快速趕上。Goose 的文件強調了幾個具有強大工具呼叫支援的選項:Meta 的 Llama 系列、阿里巴巴的 Qwen 模型、Google 的 Gemma 變體,以及 DeepSeek 的專注推理架構。

該工具還整合了 Model Context Protocol(MCP),這是一個連接 AI 代理與外部服務的新興標準。透過 MCP,Goose 可以存取資料庫、搜尋引擎、檔案系統和第三方 API——將其能力遠遠超出基本語言模型提供的範圍。

使用本地模型設置 Goose

對於感興趣於完全免費、保護隱私設置的開發者,該過程涉及三個主要組件:Goose 本身、Ollama(用於本地運行開源模型的工具),以及相容的語言模型。

步驟 1:安裝 Ollama

Ollama 是一個開源專案,大幅簡化了在個人硬體上運行大型語言模型的過程。它透過簡單的介面處理下載、優化和提供模型的複雜工作。

從 ollama.com 下載並安裝 Ollama。安裝後,你可以用單一命令拉取模型。對於編程任務,Qwen 2.5 提供強大的工具呼叫支援:

ollama run qwen2.5

模型自動下載並開始在你的機器上運行。

步驟 2:安裝 Goose

Goose 可作為桌面應用程式和命令列介面使用。桌面版本提供更視覺化的體驗,而 CLI 吸引完全喜歡在終端機中工作的開發者。

安裝說明因作業系統而異,但通常涉及從 Goose 的 GitHub 發布頁面下載或使用套件管理器。Block 為 macOS(Intel 和 Apple Silicon)、Windows 和 Linux 提供預建的二元檔案。

步驟 3:配置連接

在 Goose Desktop 中,導航到 Settings,然後 Configure Provider,並選擇 Ollama。確認 API Host 設定為 http://localhost:11434(Ollama 的預設埠)並點擊 Submit。

對於命令列版本,執行 goose configure,選擇「Configure Providers」,選擇 Ollama,並在提示時輸入模型名稱。

就是這樣。Goose 現在已連接到完全在你的硬體上運行的語言模型,準備執行複雜的編程任務,無需任何訂閱費或外部依賴。

你應該了解的 RAM、處理能力和權衡

明顯的問題:你需要什麼樣的電腦?

在本地運行大型語言模型需要的運算資源遠超典型軟體。關鍵限制是記憶體——特別是大多數系統上的 RAM,或者如果使用專用顯卡進行加速則是 VRAM。

Block 的文件建議,32 GB 的 RAM 為「較大模型和輸出提供了可靠的基準」。對於 Mac 使用者,這意味著電腦的統一記憶體是主要瓶頸。對於具有獨立 NVIDIA 顯卡的 Windows 和 Linux 使用者,GPU 記憶體(VRAM)對於加速更重要。

但你並不一定需要昂貴的硬體才能開始。參數較少的小型模型可以在更謙遜的系統上運行。例如,Qwen 2.5 有多種尺寸,較小的變體可以在 16 GB RAM 的機器上有效運作。

「你不需要運行最大的模型就能獲得優秀的結果,」Sareen 強調。實際建議:從較小的模型開始測試你的工作流程,然後根據需要擴展。

舉例來說,Apple 入門級的 8 GB RAM MacBook Air 在大多數有能力的編程模型上會掙扎。但 32 GB 的 MacBook Pro——在專業開發者中越來越普遍——可以舒適地處理它們。

為什麼讓你的程式碼遠離雲端比以往任何時候都重要

帶有本地 LLM 的 Goose 並不是 Claude Code 的完美替代品。這種比較涉及開發者應該了解的真正權衡。

模型品質:Anthropic 的旗艦模型 Claude 4.5 Opus 仍然是軟體工程任務 arguably 最有能力的 AI。它擅長理解複雜的程式庫、遵循細緻的指令,並在第一次嘗試時產生高品質的程式碼。開源模型已經大幅改善,但差距仍然存在——特別是對於最具挑戰性的任務。

一位轉換到 200 美元 Claude Code 方案的開發者直率地描述了這種差異:「當我說『讓這看起來現代化』時,Opus 知道我的意思。其他模型給我 2015 年左右的 Bootstrap。」

背景視窗:透過 API 存取的 Claude Sonnet 4.5 提供了巨大的 100 萬 token 背景視窗——足以載入整個大型程式庫而無需分塊或背景管理問題。大多數本地模型預設限制為 4,096 或 8,192 token,儘管許多可以配置更長的背景,代價是增加記憶體使用和更慢的處理。

速度:雲端服務如 Claude Code 在為 AI 推理優化的專用伺服器硬體上運行。在消費筆電上運行的本地模型通常處理請求較慢。這種差異對於你正在快速變更並等待 AI 反饋的反覆工作流程很重要。

工具成熟度:Claude Code 受益於 Anthropic 的專門工程資源。提示快取等功能(可將重複背景的成本降低高達 90%)和結構化輸出經過精緻處理且有良好文件記錄。Goose 雖然迄今已有 102 個版本積極開發,但依賴社群貢獻,可能在特定領域缺乏同等精緻度。

Goose 如何與 Cursor、GitHub Copilot 和付費 AI 編程市場競爭

Goose 進入了擁擠的 AI 編程工具市場,但佔據了獨特的位置。

Cursor,一個流行的 AI 增強程式碼編輯器,其 Pro 層級收費每月 20 美元,Ultra 收費 200 美元——定價反映了 Claude Code 的 Max 方案。Cursor 在 Ultra 層級每月提供約 4,500 次 Sonnet 4 請求,這是與 Claude Code 的小時重設截然不同的分配模型。

Cline、Roo Code 和類似的開源專案提供 AI 編程協助,但具有不同程度的自主性和工具整合。許多專注於程式碼補全,而不是定義 Goose 和 Claude Code 的代理任務執行。

Amazon 的 CodeWhisperer、GitHub Copilot 和主要雲端提供商的企業產品針對具有複雜採購流程和專門預算的大型組織。它們與尋求輕量級、靈活工具的個別開發者和小型團隊相關性較低。

Goose 結合了真正的自主性、模型無關性、本地運作和零成本,創造了獨特的價值主張。該工具並非試圖在精緻度或模型品質上與商業產品競爭。它在自由上競爭——包括財務和架構。

每月 200 美元的 AI 編程工具時代可能即將結束

AI 編程工具市場正在快速演變。開源模型正在持續縮小與專有替代方案差距的速度改進。Moonshot AI 的 Kimi K2 和 z.ai 的 GLM 4.5 現在基準測試接近 Claude Sonnet 4 水平——而且它們是免費可用的。

如果這個軌跡持續,證明 Claude Code 高價定價的品質優勢可能會被侵蝕。Anthropic 然後將面臨在功能、使用者體驗和整合上競爭的壓力,而不是原始模型能力。

目前,開發者面臨明確的選擇。那些需要絕對最佳模型品質、負擔得起高價定價並接受使用限制的人可能更喜歡 Claude Code。那些優先考慮成本、隱私、離線存取和靈活性的人在 Goose 中有真正的替代方案。

一個每月 200 美元的商業產品擁有零美元的開源競爭對手且具有可比的核心功能,這本身就值得注意。它反映了開源 AI 基礎設施的成熟度以及開發者對尊重其自主權的工具的渴望。

Goose 並不完美。它比商業替代方案需要更多的技術設置。它依賴於並非每個開發者都擁有的硬體資源。它的模型選項雖然快速改善,但在複雜任務上仍然落後於最佳專有產品。

但對於日益增長的開發者社群來說,這些限制是可接受的權衡,以換取 AI 景觀中日益罕見的東西:一個真正屬於他們的工具。


Goose 可從 github.com/block/goose 下載。Ollama 可於 ollama.com 取得。這兩個專案都是免費且開源的。