无法衡量的事物就无法改进。这就是 JieGou 推出 GovernanceScore 的原因 — 一个 0 到 100 的单一数字,精确告诉你 AI 治理态势的成熟程度,以及下一步该做什么来改进。
GovernanceScore 不是虚荣指标。它是对 AI 安全、合规和卓越运营至关重要的八个因子的量化评估。每个因子都对总分有贡献,且可以独立改进。
以下是它的运作方式。
8 个因子
1. RBAC 覆盖率(0–15 分)
衡量你在整个组织中实施角色访问控制的彻底程度。所有团队成员是否都被分配了适当的角色?权限是否与实际工作职能一致?是否在所有使用 JieGou 的部门都有角色覆盖?
如何改进: 确保每个团队成员都有角色分配。每季度审查权限。为部门主管使用经理角色,而不是给所有人管理员权限。
2. 审批门控采用率(0–15 分)
审批门控防止未经审查的 AI 操作进入生产环境。这个因子衡量你的敏感工作流中有多少包含审批步骤,以及审批者是否在积极审查(而非只是自动批准)。
如何改进: 找出涉及外部系统、财务数据或客户通信的工作流。在这些关键操作前添加审批步骤。目标是在至少 80% 被归类为敏感的工作流上设置审批门控。
3. 审计日志完整性(0–10 分)
启用审计日志只是基线。这个因子评估你的日志是否完整 — 涵盖所有操作、所有用户、所有工作流执行 — 以及是否保留了足够的期间。
如何改进: JieGou 默认启用审计日志,因此大多数组织在这里的起始分数不错。确保你没有在任何工作流上停用日志,并且你的保留设置符合合规要求。
4. BYOK 加密(0–15 分)
自带密钥(BYOK)意味着你的 LLM API 密钥使用你控制的密钥加密,而不是以明文存储或使用平台管理的密钥加密。这个因子衡量你是否使用 BYOK 以及密钥是否定期轮换。
如何改进: 为所有 LLM 供应商启用 BYOK。设置每季度的密钥轮换计划。如果你的组织需要数据隔离,为不同部门使用不同的 API 密钥。
5. MCP 认证(0–10 分)
MCP(模型上下文协议)集成将你的 AI 工作流连接到外部服务。这个因子评估你是否使用经认证的 OAuth 集成,而非未经认证的或手动连接。
如何改进: 优先使用 JieGou 内置的 OAuth 集成,而非手动 API 密钥连接。审查你的集成清单,将任何未认证的连接迁移到经认证的替代方案。
6. 模型多样性(0–10 分)
依赖单一 AI 模型会产生集中风险。这个因子衡量你是否使用来自多个供应商(Anthropic、OpenAI、Google)的模型,以及是否有备用配置。
如何改进: 配置至少两个 LLM 供应商。设置备用模型,以便在某个供应商发生中断时工作流可以继续。根据不同模型的优势,为不同用例使用不同的模型。
7. 成本透明度(0–10 分)
AI 成本可能在缺乏可见性的情况下失控。这个因子评估你是否配置了成本追踪、预算和警报 — 以及团队成员是否能看到其工作流的成本影响。
如何改进: 启用按工作流的成本追踪。设置部门级别的预算,在 80% 和 100% 阈值时发出警报。每月审查成本报告并优化昂贵的工作流。
8. 内存治理(0–15 分)
AI 内存 — 会话之间保留的上下文和数据 — 也需要治理。这个因子衡量你是否有关于存储什么数据、保留多久以及谁可以访问历史上下文的策略。
如何改进: 按部门配置内存保留策略。为不同的数据敏感度等级设置适当的 TTL。确保 PII 处理遵循你组织的数据治理策略。
从 40 到 80+:实际改进路径
一个典型的组织在注册并开始使用 JieGou 后,通常会得到 35-45 分左右。审计日志默认开启,基本 RBAC 在邀请流程中就已到位,部分集成已经认证。这是一个稳固的起点。
以下是达到 80+ 的最快路径:
第一周(40 → 55): 为你的主要 LLM 供应商启用 BYOK 加密。仅此一项就能增加最多 15 分,只需大约五分钟。
第二周(55 → 65): 为你最敏感的前 5 个工作流添加审批门控。审查你的 RBAC 分配,确保每个团队成员都有正确的角色 — 而不是”所有人都是管理员”。
第三周(65 → 75): 配置第二个 LLM 供应商作为备用。设置成本追踪和部门预算。将任何手动集成迁移到 OAuth 认证的替代方案。
第四周(75 → 80+): 配置内存保留策略。审查审计日志保留设置。进行最终的 RBAC 审查,确保部门隔离配置正确。
为什么 GovernanceScore 很重要
GovernanceScore 给你三样东西:
一个基线。 在你改进治理之前,你需要知道现在的位置。一个简单的数字让你容易向领导层沟通并追踪长期趋势。
一个路线图。 每个因子精确告诉你下一步该做什么。不再是模糊的建议,而是按影响力排序的具体、可行的改进项目。
进步的证明。 当你的 CISO 问”我们的 AI 治理怎么样?“时,你可以用一个数字、一条趋势线和按因子的分项来回答。这样的对话只需要两分钟而非两小时。
AI 治理不是终点 — 它是一种持续的实践。GovernanceScore 让这种实践可以衡量。