RAG vs LLM Wiki — 記憶方案怎麼選

2026-04-08

SunkCost 推薦 mem0/Langmem 做 Agent 記憶,同時分析 RAG 管線(parsing → chunking → embedding → retrieve)每個環節的品質要求。

結論:RAG 坑很深,每個環節都可能出問題。除非資料量巨大,放棄 RAG 走 llm-wiki 或 indexing 方式對大多數情況夠用。小規模場景用 indexing 方式(如 llm-wiki)比 vector DB 更實際、更可控。提到 docling 開源專案可協助文件解析。