Claude Opus 4.7 發布 — 初步評測偏負面
Opus 4.7 上線,多人測試後評價偏負面:
- Noct:比 4.6 表現更差
- Ernst:大量幻覺像被 GPT 附身
- P.H:4.7 是 4.6 弱化算力版
- kiwicc:CC 無法從 UI 降回 4.6/4.5
Bertram 提供 CLI 手動切換方法:claude --model claude-opus-4-7 或對話中 /model claude-opus-4-7。新模型不一定更好,初期幻覺多,建議觀望或切回 4.6。
___ ___ __ ___ ___ _ _ ___
/ _ ||_ _| / \ / __|| __|| \| ||_ _|
| __ | | | / /\ \ (_ || _| | \\ | | |
|_||_||___|_/ \_\___||___||_|\_| |_|
Opus 4.7 上線,多人測試後評價偏負面:
Bertram 提供 CLI 手動切換方法:claude --model claude-opus-4-7 或對話中 /model claude-opus-4-7。新模型不一定更好,初期幻覺多,建議觀望或切回 4.6。
群組討論 Obsidian 與 CC 的整合方案:
最佳整合方式是用 CLI/IDE 直接存取 vault,而非 MCP。
Claude Code 發布 Routines 功能,三種排程方式的差異:
Routines 核心升級在於從「排程觸發」升級為「事件觸發」——可監聽 GitHub 事件(PR 自動 review、issue 分類),雲端運行不依賴本機。但目前需綁 GitHub repo,非工程師使用門檻較高。
トーマ 分享成功讓龍蝦加入 Google Meet,會議結束後即時整理會議記錄到 Discord。做法是安裝 openutter skill,抓取 Google Meet 內建 CC 字幕。龍蝦/CC 可透過即時字幕功能自動化會議記錄,輸出到 Discord 或其他平台。
flow 推薦 zhtw-mcp 解決 Claude 高峰期語言混亂(輸出韓文、簡體中文用語)的問題。也有人分享在 CLAUDE.md 設定 Taiwan Terminology Preference 清單的做法。
Claude 在高峰期容易語言混亂,用 MCP 或 CLAUDE.md 明確定義台灣繁體用語偏好可大幅改善。
MINTAE 分享哥倫比亞大學 arXiv 論文的反直覺發現:「便宜快速模型做規劃,Opus 做執行」的成效遠高於反向配置。
RIPPLE 分享 all Opus + Codex reviewer 的實戰經驗,指出 Opus 會因為下屬太笨而自己動手。讓便宜模型做規劃反而效果更好,因為貴模型在執行時能自行修正計劃中的問題。
完整討論 CLAUDE.md 的層級架構:
~/.claude/CLAUDE.md:跨專案通用規則.claude/:settings.json、commands/、skills/、rules/、agents/Bertram 也對比了 Codex 的 AGENTS.md 結構。核心原則:階層分清楚,載入越精準,不相關規則越少,模型出錯機率越低。共通規則放全域,專案特有留專案資料夾。
Jason Y. 分享 Microsoft 開源的 markitdown 工具,可將 PDF 轉成 Markdown 格式再餵給 AI,大幅節省 token。寸 token 寸金的時代,PDF 先轉 Markdown 再餵 AI 是基本操作。
13 提出的架構:Opus 做任務檢驗/退件、Sonnet 管理任務、Gemini Flash 執行、MiniMax 做雜事。
Hevin 分享實際做法:讓下層 agent 先用 rules 做 harness,再用 handover.md 交付給 Opus 驗收。Bertram 補充:越聰明的模型自主性越高會多出提議,簡單明確任務用 Opus 反而浪費。
先 plan 好再分 subagent 執行,加上審核/測試/退件閉環,是目前多模型協作的最佳實踐。
多人討論 Hermes Agent 的自我進化功能。Mask 確認其閉環成長系統很強——Agent 可以在執行中學習並改善自身行為。
後來 Twitter 爆料 Hermes 概念與 Evolver 完全一致,引發開源抄襲爭議。RIPPLE 的結論:開源就不要怕抄,怕抄就不要開源。MIT 授權下無法律問題但有道德爭議。Hermes 的自我進化概念值得參考,使用前注意其來源爭議。
Bertram 分享 RTK 工具,在終端機與 AI 工具之間插入過濾器層,壓縮/過濾 git status、ls 等命令的輸出,只送關鍵資訊給 LLM。
但日本開發者發現 RTK 有 telemetry(回傳使用資料),做了去追蹤版 miina-proxy。終端輸出是隱藏的 Token 消耗大戶,過濾工具有效但需注意隱私安全。
繼 gstack 之後,YC 總裁 Garry Tan 推出 gbrain AI 開發框架。地球335 用 repo-analyst 分析後評價「開源,小複雜」,個人專案不一定需要。
YC 系的 AI 框架持續出現,但不一定適合所有人。建議先用 DD/repo-analyst 類工具評估再決定是否採用。
小焰發現 .gitignore 中 .env 排除規則被插入不可見特殊符號,導致 .env 實際上沒被排除、被推送到 GitHub。用 Notepad++ 才看出那些不佔位的特殊字元。
AI 生成的程式碼可能被注入不可見字元來繞過安全規則。務必用能顯示特殊字元的編輯器檢查 .gitignore 等安全相關檔案。這不只是理論風險——實際案例中 .env(含 API key)就這樣外洩了。
小騾分享 LLM Wiki 的進階玩法:餵 PDF 書籍進去,不只整理摘要,AI 還會用章節知識給出個人化建議。
實測餵入鐵人三項訓練書籍後,AI 結合個人情境產出客製化訓練建議。lint 後建議會持續更新。搭配 opendataloader-pdf 讀取 PDF。LLM Wiki 不只是知識整理工具,更可以做個人化建議引擎。
Hay 分享的省錢架構:讓 OpenClaw 調用 CC CLI 當 subagent,CC 自己還可以再開 subagent。OpenClaw 只當傳聲筒 + RP,CC 吃月費。
這樣用 2 個模型比 1 個 CC 跑所有事情更省——本地 LLM 處理日常對話,CC 只處理複雜任務,大幅節省 token 消耗。
森 分享自製 DD(Due Diligence)Skill,針對網路瘋傳的 GitHub repo 做 fact check,與自己現有系統比較,產出 research 檔案。地球335 也分享了 repo-analyst 工具做類似的事。
AI 時代需要 DD 流程來評估新工具是否值得加入現有系統,避免照單全收被 overhype 誤導。用 Skill Creator 可快速建立個人化 DD 工作流。
多人分析 mempalace 開源記憶專案。原理是壓縮成 AAAK 格式(類 AST/Cache),用記憶宮殿式樹狀分類做索引。
John 點出關鍵洞察:「放棄 Embedding/VectorDB,直上 Grep 和 FTS」已成趨勢,連 Claude Code 也是這樣做。SLS 指出跑分可能偽造。記憶壓縮不等於無損——人名縮寫已經是有損壓縮,用的時候要注意。
簡單的 Grep + FTS 方案往往比複雜的 RAG 管線更穩定有用。
SunkCost 推薦 mem0/Langmem 做 Agent 記憶,同時分析 RAG 管線(parsing → chunking → embedding → retrieve)每個環節的品質要求。
結論:RAG 坑很深,每個環節都可能出問題。除非資料量巨大,放棄 RAG 走 llm-wiki 或 indexing 方式對大多數情況夠用。小規模場景用 indexing 方式(如 llm-wiki)比 vector DB 更實際、更可控。提到 docling 開源專案可協助文件解析。
群組討論 Skill 不觸發的常見問題與解法:
Skill 觸發靠語意匹配,需要在 description 和 CLAUDE.md 中做好索引與觸發條件設定。
AI小白白分享的省 token 實戰策略:把思考/決策/偵錯交給 Gemini CLI,只讓 Claude Code 做最後修改。
Gemini Pro 免費額度拿來做偵錯,等確認方向後再交給 Claude 執行。核心概念:不讓 Claude 開 thinking(thinking 燒 token 最快),把構想和偵錯流程分流到免費模型。週五才重置卻已用 78% 的困境下想出此法。
兩者都是 $200/月,但額度體感差很多:
價格一樣但 Claude Max 適用範圍更廣。社群建議的搭配方式:Claude Code 做規劃和架構設計,Codex 專注寫程式碼,各取所長。
重點是 Codex 不支援 MCP、沒有 Claude Code 的 agent loop,定位比較像「有 context 的高級自動補全」,不是全功能 AI coding agent。
用 Claude Code Channel 在 Discord 設定多個 Bot,讓它們在同一伺服器互相 @ 對話、自動分工。
實測發現 Bot 會自己判斷問題是否在職權內,超出範圍會主動呼叫負責的 Bot。適用場景包含:同個 session 進行多角度辯論後再執行、前後端 repo 分離的專案透過多 Bot 協作,效能跟沒有 Channel 是天差地別。
Harry(前端工程師)分享用 Figma MCP 將設計稿直接轉成 HTML/CSS 的完整工作流。
包含實作 Demo、AI 切版流程、踩坑經驗。Figma MCP 已可實現設計稿到可用網頁的自動化流程,關鍵在中間的踩坑處理和調整。
Claude Code 預設只用一個模型,claude-boost 讓它根據任務複雜度自動切換 Haiku / Sonnet / Opus,簡單任務省 token、複雜任務不降質。
原理是攔截 API 呼叫,分析 prompt 複雜度後路由到對應模型。日常問答走 Haiku,一般 coding 走 Sonnet,架構設計或多步驟推理才升 Opus。對重度用戶來說可以顯著降低 API 費用。
用 LanceDB 做本地向量資料庫的 MCP memory server,支援 Hybrid Retrieval(向量 + 全文混合搜尋),不需要雲端服務。
跟 Cloudflare 方案的差異:完全本地運行,不依賴外部 API,適合離線或隱私敏感場景。對 OpenClaw 用戶特別有用,因為 OpenClaw 本身就強調本地優先的架構。
安裝後直接掛到 Claude Code 的 MCP 設定就能用,記憶存在本機 LanceDB 檔案裡。
讓 AI coding agent 擁有跨 session 長期記憶,部署到 Cloudflare Workers(免費),Claude / ChatGPT / Gemini CLI / Cursor / VS Code 都能用。
架構:CF Worker + D1 存全文 + Vectorize 做 embedding search(bge-m3 多語言模型)。好處是跨裝置共享,公司跟家裡的 Claude Code 讀同一份記憶。
Claude Code 走 stdio proxy(本機 Node.js)→ 普通 HTTP POST 到 CF Worker 的 REST API(/api/*),不走 MCP Streamable HTTP transport(繞過 SDK bug)。Claude Desktop 則走 /mcp 路由,用 OAuth 2.1 認證。
功能包含每日自動整理(過期歸檔、去重、AI 判斷、合併),重要知識可標記「絕對真理」永遠不被清理。
MCP Streamable HTTP transport 在 Claude Code 有 SDK bug,目前的繞過方案是完全不走 MCP HTTP transport。
做法:Claude Code 用 stdio proxy(本機 Node.js process)接收 MCP 呼叫,轉成普通 HTTP POST 送到 CF Worker 的 REST API(/api/*),不經過 /mcp 路由。Claude Desktop 則走 /mcp 路由搭配 OAuth 2.1 認證,兩條路線互不干擾。
這是 mcp-memory-server 實際採用的架構,已驗證穩定。等 SDK 修好再切回標準 transport。
Hevin 的 5 階段 Claude Code 工作流,用平行 subagent teams 拆解外部 repo 分析:
階段 1:探索 — Agent(Explore) × 1-2 個,Glob 找架構文件、Read 讀核心檔案(5-10 個)、Grep 搜關鍵字
階段 2:平行拆解(Agent Teams) — Agent() × 3-4 個同時發送:Architecture / Skills & Tools / Safety & Quality / Unique Features
階段 3:對照比較 — 拿分析結果跟自己的系統對比
階段 4:寫 Case Study — 整合成結構化文件
階段 5:審計 — 回頭檢查品質
核心原則:大量掃描交給 subagent(保護 context),綜合判斷自己做(agent 沒有全局觀)。平行 agent teams 快很多,不用一個等一個。
flow 實測 Gemma 4 全尺寸 MLX 量化版本(E2B / E4B / 26B-A4B / 31B,各有 bf16 / 8bit / 4bit),關鍵結論:
4B 級別的視覺描述各家差不多,但 Gemma 4 多了 audio 功能。本機拿來分析、做雜事都很強。
Google 發布 Gemma 4 開源多模態模型,4B 參數量支援 Vision/LLM/Audio/Embedding。
硬體需求: E4B Q8 需 9.2GB RAM(比 Qwen 3.5 4B 的 5.2GB 大近一倍,因多了 audio 和更長上下文)。M1 Pro 16G 可順跑 4B 版,Q4 版本不夠穩定易崩。
實測評價: 視覺描述能力優秀,可直接 OCR 圖片文字與環境線索。與 Qwen 3.5 比較速度略快,視覺層品質相當(2026 世代 4B 都極好)。寫程式能力不足(需 26B 以上)。
定位: 適合當應用軟體用——OCR、視覺理解、簡單對答。搭配 CoPaw 或接入 N8N 做自動化任務。
開源的本地影音素材管理工具,用 Whisper + 向量搜尋讓你用自然語言找影片片段。
架構: FastAPI + SQLite metadata + ChromaDB 向量搜尋,桌面 App 用 Tauri 包裝。
語音轉文字: Whisper large-v3-turbo,Mac MLX Metal / NVIDIA CUDA 加速。RTX 4070 約 11.5 倍實時、M2 Max 約 6.3 倍實時。
防幻覺四道關卡:
no_speech_prob > 0.6avg_logprob < -1.0compression_ratio > 2.4後處理: qwen2.5:14b 修同音字補標點,qwen3-vl:8b 做畫面分析。有 DaVinci Resolve plugin,GUI/CLI 雙介面。
tony1223 開發的封裝工具,讓 Claude Code 自動處理權限確認(bypass permissions),不需手動按 approve。
搭配 worktree 可實現無人值守開發——睡前開啟,醒來檢查結果,歪了再開一隻。原生 Claude Code 也有 --dangerously-skip-permissions 達成類似效果,但此工具提供更方便的操作介面。
原始碼洩漏揭露 Claude Code 內建正則表達式,偵測使用者是否開始生氣或情緒崩潰。
這是 yoloClassifier 安全審查系統的一部分,由 Ricky Wang 發現並分享截圖。社群討論能否反向利用——例如從 thinking 回覆中撈出「發瘋量表」來自我檢測,看自己跟 AI 協作時的情緒狀態。
Y Combinator CEO Garry Tan 開源的 AI 開發工作流框架,內含大量預設工作流。
社群評價: CEO 系列需要回答約 30 分鐘問題,設定過於笨重;superpower brainstorming 功能對大部分工作比較實際。建議替代:直接用 superpower-skills 或 skill-creator 等更輕量方案。
Claude Code 原始碼洩漏催生了新概念 Harness Engineering——探討 IDE/CLI 層如何馴服 LLM。
社群整理的分層架構:
Harness Engineering 關注的是 IDE/CLI 這一層:怎麼設計 prompt 分層、安全審核、記憶系統、上下文壓縮等機制,讓 LLM 在開發場景中穩定可控地工作。洩漏事件讓社群第一次能對照實際產品的工程實踐來研究這些設計。
命令列工具,可自動生成 PDF、Doc、Excel 等 Office 系列文件。搭配 AI agent 使用,可自動產出格式化報告和簡報,不需要打開 Office 軟體。
axios 維護者的 GitHub 帳號被盜用,注入惡意程式碼,影響範圍極廣。
影響:
因應措施:
2026 年 3 月底,2x 加倍額度活動結束後,多位使用者反映 Claude Code 的 token 消耗速度比活動前更快,不只是「回到正常」而是「異常加速」。
社群回報的具體數字:
可能原因:
社群中有人分享了一篇 Threads 分析文,指出 Claude Code 的 Cache 機制可能存在 Bug,導致本該被快取的內容重複計費。John 也提到「大概是因為 CC 的 Cache 有問題的 Bug」。
社群的因應策略:
Claude Code 原始碼因 npm registry 的 source map file 意外流出,CabLate 完成完整拆解,社群深度分析其內部架構。
關鍵發現:
cx-cli 是一個基於 Lexer 的程式碼索引工具,在 AI 讀取程式碼之前先做語法解析,只列出必要的 Symbols,大幅減少需要送進 context 的 token 量。
與 Grep 的差別:
效果:
背景: 2026-03-31 多位使用者反映 Claude Code 額度消耗速度異常加快,cx-cli 成為社群熱門的省 token 方案之一。
OctoDock 是一個串接整合 API 讓 agent 使用的 MCP 平台,已支援上百個 action(建立 n8n workflow、TG 社群等)。
核心優勢: context 佔用是單一 MCP 的 1/50,解決 MCP 工具太多吃光上下文的問題。
免費使用,也開放提交自製 App。
Serena MCP 透過 LSP(Language Server Protocol)Server 提供比 grep 更精準的程式碼定位,適合大型專案的跨 repo 搜尋。
優勢:
限制:
與 cx-cli 的差異: cx 偏向單檔分析的 LSP 替代品,較輕量;Serena 偏常駐型,適合大專案。OpenCode 也有類似的內建 LSP 功能。
社群多位使用者實測後歸納出 Codex(GPT-5.4)與 Claude Code 的互補特性,兩者搭配使用效果遠大於單用。
Codex 的強項:
Codex 的弱點:
搭配策略:
技術債警示(提摩的實際案例): 類似功能在不同模組中被 Claude 和 Codex 用兩組不一樣的方式實作,隨功能演進兩組長成不同樣貌,直到生產環境結果與測試不同才發現。解法是每次開發前先讓 AI 讀取並確認現有實作再開始。
Mnemox AI 團隊(無傳統工程師背景,全靠 AI Agent 開發)分享了他們的 AI 交易 Agent 架構,核心理念是「AI 當顧問不當操盤手」。
架構分層:
Context 管理策略:
品質保證: 1,200+ 個自動化測試,AI 寫完 code 跑測試通過才合併;策略邏輯用歷史數據回測驗證,數字對不上就重寫。
關鍵設計理念: 不需要看懂每行 code,但要看得懂交易結果對不對。把「可驗證性」放在「可讀性」前面。
P.H 分享了基於完整 SDD(Spec-Driven Development)文件的多模型協作流水線,每個模型負責最擅長的階段。
流水線分工:
為什麼要 Codex review:
省 token 策略: Gemini 只用在最低風險的工作(commit、文件),把高價值的 Claude 額度留給規劃和修復。
把自己的工作流整理成 Claude Code Skill 後,可以透過 GitHub 分享給其他人使用。
分享流程:
~/.claude/skills/ 目錄即可使用P.H 補充的進階想法:
npx skills add ... 指令讓別人一行安裝社群討論到的 Skill 商業化方向(RIPPLE): 建立通訊軟體平台,讓創作者可以上架 Skill、專家模式(付費知識庫)、主題應用等,使用者按次付費。
Ben 分享了在公司用 Cursor 指令建立的 Code Review Skill,讓三種模型(Opus 4.6、GPT 5.4、Gemini 3)自動互相討論程式問題。
效果與成本:
為什麼值得: 和工程師薪水相比便宜很多,而且可以在非工時預先完成討論,讓人類 review 時有充分的參考資料。
提摩補充的進階想法: 可以用 LangGraph 建立 event-driven 的 multi-agent,把 Codex、Gemini、Claude 放在不同 node,讓它們自動完成規格討論 → 開發 → E2E QA 測試 → Review 的完整流程。
社群多位使用者分享的日常省 token 技巧:
指令層面:
@ 標註具體檔案路徑,避免 AI 到處搜尋浪費 token/clear — 養成清除上下文的習慣,避免舊對話拖長消耗/compact — 壓縮過長的對話歷史架構層面:
工作流層面:
使用 DRY 原則防技術債(可愛貓貓): 在 Skill 中明確要求 DRY,搭配 linter gate PR,減少 AI 生成重複程式碼造成的額外修改成本。
Pan 分享了 Claude Code Channel(透過 Discord 操控 Claude Code)的進階使用心得,解決幾個 Channel 模式下的痛點。
主要挑戰與解法:
/clear slash command,需要透過腳本觸發重啟Kuei 補充的 Session 管理技巧: 用另一個 session 的 bot 來互相清除對方的 context,兩兩一組互相協助彼此的 tmux session。
Pan 的核心觀點: 為 Agent 加入「主動性」是打造好 Agent 的關鍵 — 結合知識庫中正在進行的專案,Agent 能提供意想不到的建議,而不只是被動回答問題。
Claude Code 在 Windows 原生環境有已知的渲染問題,以下是社群驗證過的解法:
問題: 使用 Windows CMD 時,Claude Code 畫面容易跑版、拉視窗大小會導致整個 CMD 消失。
解法(由輕到重):
Windows 特有的 Agent 陷阱(只是薯條補充):
\n\r(換行符)和路徑中的 \\(反斜線分隔符)會卡死 AgentCodex CLI 內建 MCP Server,可以直接掛進 Claude Code,讓 Claude 在需要時呼叫 Codex 討論問題或做 code review。
設定指令:
claude mcp add codex -s user -- codex -c model=gpt-5-codex -c model_reasoning_effort=high mcp-server效果: Claude Code 變成主控 agent,可以在流程中自動呼叫 Codex(GPT-5-codex 模型)作為 sub-agent,實現跨模型協作。
補充: 社群也有人開發了 claude_code_bridge 專案來處理 CLI 之間的協作橋接。
2026-03-31 更新: Anthropic 已在 Threads 上宣布官方版 Codex 整合方案。
AI 生成程式碼時,過度使用 Design Patterns(如 decorator chain、多層嵌套 mixin)會踩到 LLM 的根本限制,導致「接龍因果斷裂」。
核心問題:
實務建議:
P.H 補充的架構原則: 初期概念階段保持 flexible,不要一開始就寫死架構和做最佳化。
社群針對全自動 Agent(以 Manus 為代表)與 CLI 型 Agent(Claude Code、Codex、Gemini CLI)在生產環境的適用性展開討論。
Manus 的優勢(Ai.com.tw 實際經驗):
P.H 提出的核心疑慮 — 可迭代性:
社群結論:
Edward 分享的「漸進式」AI 架構生成方法,逐步逼近目標,避免一次性生成導致偏離。
步驟:
好處: 比起直接讓 AI 生成整個架構,逐步展開可以在每個層級及時發現偏差,大幅減少 token 浪費和返工。
例外情況: 如果一開始對需求沒什麼想法,可以先讓 AI 天馬行空地給幾個半頁左右的解決方案文字說明,Token 燒在探索階段是可以接受的。
Noct 開發的風格提示詞資源庫,提供 30+ 種視覺風格的現成 prompt,專為 SaaS Landing Page 設計優化。
特色功能:
使用方式: 瀏覽網站選擇風格 → 複製 prompt → 用於 Claude Code 或其他 AI 工具生成網頁。也可以將風格 prompt 包裝成 Skill,在專案中重複使用。
WireKitty 是一個 ASCII 風格的 UI 線框圖繪製工具,用純文字字元構建介面原型。
適合需要快速產出 wireframe 又不想開重型設計工具的場景,產出的 ASCII 圖可以直接貼進文件、Markdown 或 prompt 中讓 AI 理解 UI 佈局。
CLI 工具 + MCP server,讓 AI 直接用你已登入的 Chrome 抓資料。流量來自真實 session,網站分不出是人還是 AI。
覆蓋 36 個平台、103 個指令:
不用寫爬蟲、不用找 API key、不用處理反爬機制。支援 MCP 協議,直接接 Claude Code。
npm install -g bb-browservs 其他瀏覽器自動化工具: 其他工具開新的瀏覽器實例操作網頁,bb-browser 直接用你的登入身份,完全繞過反爬偵測。適合需要從有登入牆的平台抓資料的場景。
一個 Claude Code Skill,讓 AI 直接生成 macOS/iOS Shortcuts 的 .shortcut 檔案,簽名後可直接匯入使用。
原理: 將 Apple Shortcuts 的 1155 個 action(427 WFAction + 728 AppIntent)完整文件化成 Skill 文件,讓 Claude 具備生成合法 plist XML 的能力。生成後透過 macOS 內建 shortcuts CLI 簽名即可匯入。
安裝:
cd ~/.claude/skills && git clone https://github.com/drewocarr/shortcuts-generator.git使用方式: 自然語言請求即可,如「建一個顯示天氣的捷徑」,Claude 會生成 → 寫檔 → 簽名 → 可直接匯入。
為什麼值得關注: Skill 機制的經典案例 — 把一個領域的完整規格文件化,讓 AI 具備該領域的生成能力。同樣模式可套用到任何有明確格式規範的領域。
以下是 2025–2026 年間社群最常推薦的 Claude 學習資源,按類型分類整理。
| Repo | 說明 | 推薦原因 |
|---|---|---|
| claude-code-ultimate-guide | 225 個可直接複製的範本,涵蓋 Subagents、Hooks(31 種)、CLAUDE.md 寫法、Skills vs Commands 決策框架、41 張 Mermaid 圖表、271 題測驗 | 社群公認最完整的單一學習資源,2.7k stars |
| awesome-claude-code | Skills、Hooks、Slash Commands、Agent Orchestrators 精選清單 | 找工具和擴展的首選入口 |
| awesome-claude-code-toolkit | 135 agents、35 skills、42 commands、150+ plugins、19 hooks | 數量最多的綜合工具集 |
| Claude-Code-Everything-You-Need-to-Know | 從 Setup 到 BMAD 方法的全方位教學 | 包含實戰範例和進階策略 |
| claude-code-guide | Setup、Commands、Workflows、Agents、Skills、Tips | 適合初中級使用者的系統化指南 |
| claude-howto | 視覺化、範例驅動的教學,含 copy-paste 模板 | 直接可用的模板集合 |
| claude-md-templates | CLAUDE.md 最佳實踐模板(Global / Project / Local 三層) | 快速建立專案配置的起點 |
| claude-code-templates | CLI 工具,含 AI agents、自訂命令、Hooks、MCP 設定 | 現成的可執行配置 |
| claude-code-showcase | Hooks、Skills、Agents、Commands、GitHub Actions 範例 | 完整的專案配置展示 |
| claude-code-best-practice | 實踐導向的最佳實踐集 | 強調「像課程一樣閱讀」 |
| claude-prompt-engineering-guide | Claude 4.x 專業 Prompt 工程指南,含 MCP 和 Skills 整合 | 進階提示工程技巧 |
| claude-code-tips | 45 個實用技巧,含自訂 StatusLine、Gemini CLI 串接 | Reddit/YouTube 高人氣作者 |
| Repo | 說明 |
|---|---|
| awesome-claude-skills | Skills 資源與工具精選,含分類標籤 |
| awesome-claude-skills (Composio) | 跨 Claude.ai / Claude Code / API 的 Skills 集合 |
| awesome-claude-skills (BehiSecc) | 含 AWS Skills、測試設計等專門 Skills |
| awesome-skills.com | Skills 瀏覽網站 |
Claude Code v2.1.80 起,statusline JSON 新增 rate limits 資料。把以下腳本存成 .sh 檔,在 settings.json 的 statusLine 設定中指定即可即時顯示 5 小時 / 7 天用量百分比與重置時間。
#!/bin/sh# Claude Code status line - displays rate limit usage + 5h reset timeinput=$(cat)
five=$(echo "$input" | jq -r '.rate_limits.five_hour.used_percentage // empty')five_reset=$(echo "$input" | jq -r '.rate_limits.five_hour.resets_at // empty')week=$(echo "$input" | jq -r '.rate_limits.seven_day.used_percentage // empty')
out=""if [ -n "$five" ]; then out="5h: $(printf '%.0f' "$five")%" if [ -n "$five_reset" ]; then reset_time=$(date -r "$five_reset" +"%H:%M") out="$out (reset $reset_time)" fifi[ -n "$week" ] && out="$out 7d: $(printf '%.0f' "$week")%"
echo "$out"透過觸發 Claude Code Skill,可以自動將部落格文章轉換成社群媒體貼文格式。
工作流概念:
Claude Code 推出 Channels 功能(Research Preview),讓你從 Telegram、Discord 等外部平台推送訊息到正在運行的 Claude Code session,Claude 會即時反應並回覆。
核心概念: Channel 是一個 MCP server,負責將外部事件注入你的 Claude Code session。訊息到達時會以 <channel> event 注入,Claude 可以執行程式碼、跑測試、修 bug,再透過同一個 channel 回覆。
支援平台: Telegram、Discord(Research Preview 階段)
快速開始(以 Telegram 為例):
/plugin install telegram@claude-plugins-official/telegram:configure <token>claude --channels plugin:telegram@claude-plugins-official/telegram:access pair <code>使用場景:
注意事項:
Anthropic 在 Claude Cowork 推出 Dispatch 功能,使用者可以用手機指派任務給電腦上的 Claude,它會在背景完成工作。
特點:
自 2026/03/25 起,Gemini CLI 將有以下重大變更:
社群討論重點:
重要警告: 將 AI 服務的 OAuth 認證用於未授權的第三方工具,可能導致帳號被封。
目前已知的 OAuth 允許範圍:
風險:
建議:
Noct 製作的 Agent Skills 正體中文版,幫助想學習如何撰寫 Skills 的朋友更快上手。適合中文使用者參考學習 Agent Skills 的寫法。
Gemini CLI 更新後,用量顯示邏輯改為顯示「已使用量」而非「剩餘量」。
查看方式:
/stats 即可查看使用量/stats 不是 /status(/status 會顯示專案配置)在 Windows 上使用 Gemini CLI 時,繁體中文可能會顯示為亂碼。
解決方法:
這是一勞永逸的設定,將系統編碼從 Big-5 改成 UTF-8。
Kai 分享的龍蝦(Antigravity)詳細安裝步驟文件,以 PDF 格式提供,適合新手從零開始安裝。
Manus:
Genspark:
Perplexity:
Nvidia 推出的 AI Agent 平台 NemoClaw。
使用條件:
注意事項:
中文 vs 英文 Prompt:
防止 AI 跑偏的技巧(Edward):
在 rules 中加入天條:「將我的提問用你的理解說明一次,等我審核」
其他建議:
MiniMax M2.1:
MiniMax M2.5:
使用 M2.5 的建議:
其他推薦:
oh-my-openagent 讓各個 AI 模型各自負責專長的項目,比單一模型更省 token。
分工範例:
優點:
成本: 多模型訂閱下來大概一個月 1000 台幣左右
Void Cloud 是一個用 JavaScript(基於 Vite)來寫 Infrastructure as Code 的雲端平台。
社群討論觀點(Edward):
養 AI Agent(龍蝦)就像買到毛坯屋,要看你家想變成什麼樣子,開始幫它裝技能、寫架構,最後形成穩定工作流。
關鍵原則:
實際應用案例:
Noct 開發的 UX 技巧庫,可以搭配 Claude Code 使用來審查網站的 UX 品質。
社群使用回饋(Hank):
Joseph 開源的 OpenClaw 工作流,分為三個階段:
Paperclip 是一個開源的 AI 公司編排(orchestration)框架,MIT 授權,GitHub 已有 17.8k stars。
核心概念: 如果 OpenClaw 或 Claude Code 是「一個員工」,Paperclip 就是「整間公司」。
主要功能:
社群實測回饋(學不完):
針對多步驟的 AI Agent workflow,使用單一 agent 很容易 token 爆炸。
建議架構:Router 混合架構
適用場景: 例如批次產出 Dev Specs → 生成 UI 代碼 → 並列評選的 workflow,不需要把所有步驟塞進同一個 agent。
起步建議: 可以先用 GPT 按照自己的 workflow 規劃 Router 架構,再逐步實作。
Claude 宣佈 context 長度變成 1M 且價格不變。
用 Claude Code 養了 21 天的 AI 分身助理,適合非工程師的老闆與工作者:
問題:在 Multi-agent 架構中,負責產品開發的 Agent 和對話主 Agent 的上下文會互相衝突(金乘五也遇到「龍蝦跟 LLM 有衝突無法解決」的問題)。
解法:直接跟龍蝦討論,明確點出「不希望兩邊的上下文互相打架」,龍蝦就會自動幫產品 Agent 開設獨立的 workspace 和 memory,讓各 Agent 各司其職。
每個 Section 都有獨立的對話記憶,同類型任務用同一個 Section 處理即可。可以選擇 “Previous Section” 來延續之前的上下文。(需要新版擴充功能)
整理了 UX Skill 資源庫,提供產品設計流程的具體參考指標。
建議使用流程:先用此工具定義 IA(資訊架構),再轉出給 Stitch,Stitch 就會更清楚你要做的流程,產出品質更好。
痛點:用龍蝦兩個多月,筆記庫像資源回收場——每天狂存最新消息和 Prompt,要用時根本找不到。討論太長時容易忘了叫龍蝦存資料,過了第 3 天回頭找就容易失焦,浪費人類時間來回溝通。
解法:結合龍蝦與「卡片盒筆記法」打造全自動知識管理流程:
GPT 5.4 在提示詞輸入超過 272K token 後:
建議:使用龍蝦或 Codex 時要定時 compact 或 /new,避免 context 越滾越大導致 5 小時額度消耗極快。
SDD(規格驅動開發)的實戰經驗分享:
結論:直接寫 Code 再修改、除錯會浪費超多 token,先寫好 Spec 才是正途。
Gemini CLI 持續更新,現在已對標 Claude Code 的功能:
Gemini CLI 額度與 Antigravity 獨立計算,對 Google AI Pro 用戶來說是 Antigravity 被鎖額度時的替代方案。
不同 AI 模型在網頁開發上的分工建議:
實用技巧:先用 Gemini 網頁版 Canvas 做完風格定調,下載後再到 Antigravity 或其他 IDE 繼續開發。這樣可以避免 Antigravity 內的 Gemini 偷懶問題。
寫程式用 Codex 或 Claude Code 比 Gemini 好,Gemini 做完 Spec 或計畫後一定要給 Claude 看過,每次都會抓到問題。
在各家 AI 都在縮減額度的時代,省 token 變得很重要:
以 UI/UX Designer 視角打造的整合型 Skill Agent,讓 AI 讀取 Workflow 時更具結構化、減少溝通成本。有社群成員反饋用了之後 AI 產出的 UI 比自己手動調的好,頂多微調即可。
搭配使用心得:善用 Skill 後工作效率大幅提升,甚至可以同時多開處理多個任務。
用手機或 iPad 遠端操控 Claude Code 開發的方案:
/remote-control 功能(需更新到最新版 CLI)社群成員的慘痛經驗:
防護措施:
rm 的 permission 一定設成 ask,不讓任何模型自動執行刪除Spec-Driven Development (SDD) 是一種先定義規格再讓 AI 實作的開發方法。透過 OpenSpec 等工具,先把需求寫成明確的規格文件,再交給 AI 按照規格逐步實現。
適合用在:老闆直接丟需求(Word、Figma、Google Sheet),需要你用 AI 做出來的場景。
善用多個訂閱的物盡其用策略:
延伸思路:就像龍蝦可以用大腦支配 Agent,你也可以用類似方式支配不同模型併行開發。CLI 就是 Agent 的溝通媒介。
Clother 可以讓 Claude Code 轉接其他 LLM,換裝平價替換品。適合想要用 CC 的開發體驗但不想全部燒 Claude token 的使用者。
善用不同模型的長處來完成大型開發任務:
好處:
進階技巧:每次 session 做完 task list 就結束,另開 session 專心執行,也可順便切換模型的 effort 參數。
Claude 的 200K context 限制不夠用時的解法:
相比之下,Gemini 宣稱的超長 context 在實測中並沒有宣傳的那麼大。
Qwen 3.5 更新後推出的 Qwen Code,搭載企業版 Qwen 3.5 Plus(上下文 1M,非開源):
多台電腦共用 Skills 的做法:
ln -s (softlink) 或捷徑,讓各 AI 工具引用同一份 Skills.claude/、.agent/)也有人將 .agent 和 .claude 兩個目錄都指向同一個原始資料夾,讓 Antigravity 和 Claude Code 共用 Skills。
直接讓龍蝦自己更新到最新版容易出問題(有多位社群成員踩雷)。較安全的更新方法:
推薦給 Claude Code 使用者的 StatusLine 工具,介面清晰易懂,可在終端機即時顯示 Claude Code 的運行狀態。
本地跑模型時,量化後的大參數模型通常優於小參數的全精度模型:
經驗法則:140B FP8 模型通常比 70B BF16 模型效果好,但記憶體使用相同。MoE 架構(如 Qwen 3.5 35B A3B)實際啟動參數少,RAM 需求更低。
有國外網友發現 Antigravity 額度消耗飛快,排查後發現是 MCP 中的 Stitch 在背景偷用 AI 額度。關閉 Stitch 後,額度消耗速度恢復正常。Google 官方人員也已確認此問題。
建議:如果覺得 Antigravity 額度異常消耗,檢查已安裝的 MCP 擴充功能是否有在背景呼叫 AI 模型。