Skip to content

Chaque décision d'agent. Entièrement traçable.

Quand votre agent IA prend une décision, qui est responsable ? La chaîne de responsabilité de JieGou fournit une traçabilité complète de l'intention au résultat — journalisation d'audit, portes d'approbation d'outils, protocoles d'escalade et export de preuves de conformité.

La chaîne de responsabilité

Cinq étapes de traçabilité — du moment où un utilisateur fait une demande jusqu'à l'enregistrement d'audit final.

1

Intention de l'utilisateur

Ce que l'utilisateur a demandé à l'agent de faire

Capturé

Entrée enregistrée avec horodatage, ID utilisateur, département

2

Raisonnement de l'agent

Comment l'agent a décidé quoi faire

Capturé

Trace d'appel LLM avec modèle, tokens, raisonnement

3

Approbation des outils

Quels outils ont été demandés et approuvés

Capturé

Porte d'approbation avec approbateur, décision, horodatage

4

Exécution

Ce que l'agent a réellement fait

Capturé

Appels d'outils, résultats, durée, coûts enregistrés

5

Piste d'audit

Enregistrement complet pour la conformité

Capturé

Export de preuves, chronologie de conformité, trace OTel

Le problème de la responsabilité non traçable

Les agents autonomes créent trois lacunes de responsabilité que les modèles de conformité traditionnels ne couvrent pas.

Les agents raisonnent de manière autonome

Quand un LLM décide comment aborder une tâche, le raisonnement est opaque. Qui est responsable de la chaîne de pensée qui a mené à une décision ? Sans journalisation, le raisonnement disparaît au moment où la génération de tokens se termine.

Les agents sélectionnent dynamiquement les outils

Les agents autonomes choisissent quels outils utiliser à l'exécution — envoyer des e-mails, interroger des bases de données, appeler des API. Qui a approuvé l'accès à l'outil ? Qui a vérifié que l'outil était approprié ? Sans portes d'approbation, la sélection d'outils n'est pas auditable.

Les agents adaptent leur comportement

Les agents qui apprennent du contexte, ajustent leurs stratégies et changent d'approche en cours de tâche créent des décisions différentes à chaque fois. Comment auditer une décision qui ne se répète jamais ? Sans traçage persistant, le comportement adaptatif est invisible.

Comment JieGou trace chaque décision

Cinq capacités qui créent une chaîne de responsabilité complète et auditable pour les agents autonomes.

30

types d'actions

Journalisation d'audit

Chaque interaction, chaque décision, chaque appel API — journalisation fire-and-forget qui ne lance jamais d'exception. 30 types d'actions avec contexte utilisateur, horodatages et portée départementale.

HITL

humain dans la boucle

Portes d'approbation d'outils

Approbation explicite avant que les agents utilisent des outils sensibles. Politiques multi-approbateurs, chaînes d'escalade et repli basé sur le délai d'expiration. Aucun appel d'outil sans décision de gouvernance.

6

rôles RBAC

Protocoles d'escalade

Hiérarchie d'agents en cascade avec règles d'escalade configurables. Quand un agent rencontre de l'incertitude ou du risque, il escalade — ne procède jamais unilatéralement. Chaque escalade est journalisée.

Visuel

vue timeline

Timeline de conformité

Timeline visuelle de tous les événements de gouvernance — approbations, escalades, appels d'outils, événements de coûts — par ordre chronologique. Les auditeurs voient l'historique complet des décisions en un coup d'œil.

17

contrôles TSC

Export de preuves

Export de preuves de conformité structurées pour les auditeurs — 17 contrôles Trust Service Criteria dans 8 catégories. Export de traces compatible OTel avec attributs enrichis de gouvernance.

Alignement réglementaire

Comment la chaîne de responsabilité se mappe aux exigences réglementaires spécifiques.

Réglementation Exigence Implémentation JieGou
EU AI Act Art. 12 Tenue de registres La journalisation d'audit capture chaque action d'agent avec horodatages et contexte utilisateur
EU AI Act Art. 14 Supervision humaine Les protocoles d'escalade et portes d'approbation d'outils assurent l'humain dans la boucle
EU AI Act Art. 50 Transparence Divulgation d'agent et journalisation d'interaction pour tout contenu généré par IA
Domaine prioritaire NIST Surveillance et réponse aux incidents Hub opérationnel, disjoncteur, DLQ, timeline de conformité

Traçabilité complète pour chaque décision d'agent

Journalisation d'audit. Portes d'approbation d'outils. Protocoles d'escalade. Export de preuves. La chaîne de responsabilité complète.