🧠 Project Context Engine

讓 AI Agent 從經驗中學習,越用越聰明
記錄日誌 → 萃取經驗 → 固化規範 → 持續進化,人類始終監督
核心理念

💡問題:AI Agent 每次對話都從零開始

傳統的 AI Agent 沒有記憶。昨天踩過的坑,今天會再踩一次。 上週找到的最佳做法,這週已經忘記。每次對話都在重複犯錯、重複摸索。

🎯解法:讓 Agent 擁有「可成長的經驗庫」

PCE 的核心很簡單:把每次對話中的決策記下來,定期萃取有效的做法,固化成 Agent 下次能直接引用的規範。 隨著專案累積的經驗越多,Agent 的判斷力越強。

核心循環
📝
記錄
Agent 每天自動記錄
決策過程和結果
⚗️
萃取
月末從日誌中
提取重複出現的模式
🚧
Hook 把關
即時攔截不合規的行為
在造成傷害前擋下來
🔒
固化
驗證通過的模式
成為 Agent 的知識
應用
下次遇到同類任務
直接引用經驗決策
flowchart LR A["📝 每日對話
Agent 記錄決策"] --> B["⚗️ 月末萃取
找出重複模式"] B --> H["🚧 Hook 把關
即時攔截違規行為"] H --> C["🕵️ 驗證觀察
新模式先觀察 5 次"] C --> D["🔒 固化規範
人類確認後生效"] D --> E["⚡ 快速決策
Agent 直接引用"] E -->|"新的決策記錄"| A style A fill:#014f86,color:#fff style B fill:#2c7da0,color:#fff style H fill:#b91c1c,color:#fff style C fill:#6c757d,color:#fff style D fill:#01497c,color:#fff style E fill:#1a6a40,color:#fff

🔑 關鍵設計:不是死記硬背,是驗證後才學

Agent 發現一個新做法後,不會馬上當成規範。系統會先「暗中觀察」5 次,確認這個做法真的有效,再經人類確認後才固化。這避免了 Agent 把偶然的成功當成規律。

Hook 把關機制

🚧經驗固化前,先過三道關卡

Agent 不是毫無限制地自由行動。系統在 Agent 每一次操作的關鍵時刻都埋了 Hook—— 在檔案被修改之前、在對話結束之前、在工具被呼叫之後, 自動檢查 Agent 的行為是否合規。不合規的操作會被即時攔截,不是事後才發現。

🔍

操作前攔截

Agent 修改檔案前,Hook 自動驗證:是否在允許範圍?是否違反已知的反模式?不通過就不讓改。

📊

結果後記錄

工具執行完畢後,Hook 自動記錄結果:成功或失敗?用了什麼策略?這些記錄是萃取系統的原料。

🛑

離場前檢查

對話結束前,Hook 檢查 Agent 行為是否偏離基線。發現方向漂移會立即標記,通知人類複查。

flowchart TD A["🤖 Agent 準備執行操作"] --> B{"🔍 PreToolUse Hook
操作前檢查"} B -->|"✅ 合規"| C["⚙️ 執行操作"] B -->|"❌ 違規"| D["🛑 攔截
Agent 收到警告"] C --> E{"📊 PostToolUse Hook
結果記錄"} E --> F["📝 記錄到日誌
(萃取的原料)"] F --> G{"🏁 對話結束"} G --> H{"🛡️ Stop Hook
漂移檢測"} H -->|"正常"| I["✅ 安全離場"] H -->|"偏離"| J["⚠️ 通知人類"] style B fill:#d97706,color:#fff style D fill:#ef4444,color:#fff style E fill:#2c7da0,color:#fff style H fill:#7c3aed,color:#fff style J fill:#ef4444,color:#fff

💡 Hook 和固化的關係

Hook 不只是安全機制——它產生的攔截記錄和行為數據,正是萃取系統判斷「哪些做法有效、哪些該避免」的關鍵輸入。把關本身就是學習的一部分。

為什麼值得用
3 秒
決策速度(原本 25 秒)
95%
決策準確率(原本 70%)
19+
已固化的經驗規範
🧠

越用越聰明

每個專案累積的經驗都會變成 Agent 的知識。用三個月和用一天,Agent 的判斷力完全不同。

🚫

不重複犯錯

踩過一次的坑會被記錄並固化成「反模式」。下次遇到同樣情境,Agent 會主動避開。

👤

人類始終掌控

所有經驗的「晉升」都需要人類確認。Agent 不會自己決定什麼是對的——它只是提案,人類拍板。

⏱️

幾乎零維護成本

每天記日誌 3 分鐘,月末花 10 分鐘跑萃取。日常完全自動,人類只處理關鍵決策。

和一般 AI Agent 的差別
一般 AI Agent使用 PCE 的 Agent
記憶 每次對話從零開始 累積經驗,跨對話保留
犯錯 重複犯同樣的錯 踩過的坑自動記錄避開
決策速度 每次重新分析(~25 秒) 查詢固化經驗(~3 秒)
品質保證 靠 Prompt 碰運氣 經驗經過驗證才固化
隨時間變化 用一年和用一天一樣 越用越聰明,經驗持續累積
人類參與 只在出錯時救火 監督學習過程,確認關鍵決策
經驗如何成長

一條經驗從「首次被發現」到「成為 Agent 的核心知識」,會經歷完整的驗證旅程。 不是所有經驗都能畢業——通不過驗證的會被淘汰。

🔵 被發現(RAW)

Agent 在日誌中記下:「這個做法好像有效」。系統標記為原始觀察,等待更多案例。

🕵️ 暗中觀察(SHADOW)

當同一模式出現 2 次以上,進入觀察期。Agent 繼續用舊規範做事,同時記錄:「如果用新方法,結果會怎樣?」連續觀察 5 次,成功率要 ≥ 75%。

🥈 獲得認可(SILVER)

觀察通過,加上至少一個失敗反例(證明 Agent 理解邊界),提交人類審核。人類確認後,正式成為 Agent 的可用知識。

🥇 核心經驗(GOLD)

長期表現穩定(信心分 ≥ 0.85)、有多個反例佐證邊界。需要人類手動批准,是 Agent 最信賴的決策依據。

📦 退場或淘汰

超過 120 天沒用到的經驗自動歸檔。規範改變了的舊做法,標記為「已廢棄」,Agent 遇到時會主動警告。

flowchart LR RAW["🔵 發現"] -->|"出現 2+ 次"| SHADOW["🕵️ 觀察"] SHADOW -->|"5 次驗證
成功率 ≥ 75%"| REVIEW["👤 人類審核"] REVIEW -->|"確認"| SILVER["🥈 認可"] SILVER -->|"長期穩定
人類批准"| GOLD["🥇 核心"] SILVER -->|"120 天未用"| ARCHIVED["📦 歸檔"] REVIEW -->|"否決"| DEPRECATED["🗑️ 淘汰"] style RAW fill:#64748b,color:#fff style SHADOW fill:#0891b2,color:#fff style REVIEW fill:#d97706,color:#fff style SILVER fill:#6366f1,color:#fff style GOLD fill:#f59e0b,color:#000 style ARCHIVED fill:#475569,color:#fff style DEPRECATED fill:#ef4444,color:#fff
人類的角色

👤Agent 提案,人類拍板

PCE 的核心安全設計:Agent 只能「建議」一條經驗應該被固化,但永遠不能自己決定。 所有經驗的晉升,都要經過人類確認。

flowchart TD A["🤖 Agent 日常工作"] --> B["📝 自動記錄決策"] B --> C["⚗️ 月末自動萃取"] C --> D["🕵️ 系統自動觀察驗證"] D --> E{"達到晉升門檻?"} E -->|"是"| F["📋 提交人類審核"] E -->|"否"| G["繼續觀察"] F --> H{"👤 人類確認?"} H -->|"✅ 批准"| I["🔒 經驗正式生效"] H -->|"❌ 否決"| J["🗑️ 淘汰"] G --> D style A fill:#014f86,color:#fff style F fill:#d97706,color:#fff style H fill:#d97706,color:#fff style I fill:#1a6a40,color:#fff style J fill:#ef4444,color:#fff

👤 人類只需要做三件事

  • 日常:正常使用 Agent 工作,不需額外操作(系統自動記錄)
  • 月末:花 10 分鐘跑一次萃取指令,系統會列出候選經驗
  • 偶爾:收到通知時,確認或否決經驗的晉升(通常一兩分鐘)
安全護欄
🛡️

漂移偵測

系統持續監控 Agent 的行為是否偏離已建立的規範。一旦偵測到方向反轉,自動暫停並通知人類。

🧪

反例機制

每條經驗必須有「什麼情況下不適用」的反例。沒有反例的經驗不允許晉升——未被證偽的不是知識,是信仰。

自動退場

長期沒用到的經驗自動降級歸檔,保持知識庫精簡。不會累積過時的規範拖慢 Agent。

🚪

行為閘門

Agent 每次修改檔案前,自動驗證是否在允許範圍內。超出範圍的操作會被攔截,不是事後補救。

一句話總結
Agent 每天記錄決策,
系統定期萃取有效做法,
經人類確認後固化成知識。

專案用得越久,Agent 越聰明。