沒人回答的責任問題
你的 AI 銷售代理剛向潛在客戶發送了一份報價方案。價格比標準費率低 15%。代理推斷潛在客戶的購買歷史和競爭信號證明了這個折扣。它選擇了 CRM 工具來提取歷史數據、電子郵件工具來發送方案、定價 API 來計算折扣。
誰批准了這個折扣?誰驗證了定價邏輯?如果折扣違反了你的定價政策,誰該負責?
如果你在沒有治理基礎設施的情況下運行自主 AI 代理,答案是:沒人知道。
三個責任缺口
傳統的合規模型是為確定性軟體設計的 — 每次做相同事情的系統。AI 代理以三種方式打破了這個模型:
缺口 1:代理自主推理
當 LLM 決定如何處理任務時,推理是湧現的。代理考慮上下文、評估選項並選擇方法。與規則系統不同,LLM 的推理是概率性的且不可重複的。
如果不記錄推理過程,決策在生成結束的那一刻就消失了。沒有思考的審計軌跡。
缺口 2:代理動態選擇工具
自主代理不僅推理 — 還會行動。它們在運行時選擇使用哪些工具:發送電子郵件、查詢數據庫、呼叫 API。工具選擇本身就是需要治理的決策。
沒有工具審批閘門,每次工具呼叫都是未經審計的操作。
缺口 3:代理調整行為
最先進的代理從上下文中學習並在任務中途調整方法。這種適應性很強大 — 但每次互動都是獨特的。如何審計一個永遠不會以完全相同方式重複的決策?
為什麼靜態合規不起作用
傳統合規假設你可以事先記錄系統行為並定期驗證。對於確定性軟體這可行。對於 AI 代理則不行:
- 部署前文件無法捕獲運行時決策
- 定期審計無法捕獲即時代理行為
- 基於規則的控制無法治理湧現的推理
- 靜態權限無法適應動態工具選擇
歐盟 AI 法案認識到了這個缺口。第 12 條要求自動記錄事件。第 14 條要求人類監督機制。第 50 條要求 AI 生成內容的透明度。
責任鏈
解決方案是一個治理架構,為每個代理決策創建完整、可審計的責任鏈。五個階段,每個都完全追蹤:
階段 1:用戶意圖 — 用戶要求代理做什麼?帶時間戳、用戶 ID、部門記錄。
階段 2:代理推理 — 代理如何決定要做什麼?LLM 呼叫追蹤包含模型、令牌使用和推理輸出。
階段 3:工具審批 — 請求了哪些工具,誰批准了?工具審批閘門要求在代理使用敏感工具前明確批准。
階段 4:執行 — 代理實際做了什麼?每次工具呼叫、API 請求和數據訪問都被記錄。
階段 5:審計軌跡 — 為合規結構化的完整記錄。OTel 相容的 JSON 格式證據匯出,帶治理豐富的屬性。
實際影響
有了責任鏈:
- 當 CISO 問「我們的代理這個季度做了什麼?」你有完整的答案
- 當審計員問「誰批准了這個工具訪問?」你有審批記錄
- 當監管機構問「你能證明人類監督嗎?」你有升級歷史
- 當客戶問「這是 AI 生成的嗎?」你有披露日誌
每個代理決策。每次工具呼叫。每次升級。完全可追溯。
查看責任鏈的實際運作:
- 責任鏈頁面 — 視覺化可追溯性圖表
- 歐盟 AI 法案合規 — 逐條能力映射
- 開始企業試用 — 部署具有完整可追溯性的治理基礎設施