L’hypothèse de l’agent unique
Le EU AI Act a été conçu pour les systèmes IA individuels. L’article 6 classifie le risque par système. L’article 9 exige la gestion des risques par système. L’article 14 impose la supervision humaine par système. Chaque disposition suppose un seul système IA prenant des décisions.
Mais les entreprises ne déploient pas des agents uniques. Elles déploient des flottes — des agents commerciaux qui passent la main à des agents de support, des agents d’analyse qui déclenchent des agents d’action, des agents de recherche qui alimentent des agents de reporting. Les workflows multi-agents sont déjà la norme, et ils croissent.
Quatre lacunes que le EU AI Act ne comble pas
L’analyse juridique du EU AI Act révèle quatre lacunes structurelles dans la gouvernance multi-agents :
Lacune 1 : Pas de cadre de responsabilité multi-agents. Quand l’agent A passe des données à l’agent B, qui déclenche l’agent C pour prendre une action causant un préjudice — qui est responsable ? Le EU AI Act assigne la responsabilité au « fournisseur » ou au « déployeur » d’un système IA. Mais dans une chaîne multi-agents, il n’y a pas de mécanisme pour tracer la responsabilité entre agents.
Lacune 2 : Pas de dispositions pour les défaillances en cascade. Si l’agent A envoie une sortie malformée à l’agent B, qui crashe et envoie des données corrompues à l’agent C, la défaillance cascade. Le EU AI Act exige la robustesse (Article 15) pour les systèmes individuels mais n’a pas de dispositions pour les défaillances en cascade entre agents.
Lacune 3 : Pas de gouvernance de la communication agent-à-agent. Les agents partagent des données via la mémoire, les fenêtres de contexte et les messages directs. Le EU AI Act exige la gouvernance des données (Article 10) mais ne traite pas de comment les données circulent entre agents.
Lacune 4 : Pas de supervision de l’orchestration multi-agents. Quand cinq agents collaborent sur une tâche, qui supervise ? L’article 14 exige la supervision humaine des systèmes IA, mais il n’y a pas de cadre pour superviser l’orchestration de plusieurs agents travaillant ensemble.
Comment JieGou comble chaque lacune
| Lacune | Solution JieGou |
|---|---|
| Pas de responsabilité multi-agents | Journalisation d’audit par agent, inférence de rôle, GovernanceScore par agent dans le workflow |
| Pas de dispositions pour les défaillances en cascade | La détection de cycles empêche les boucles infinies ; les disjoncteurs isolent les défaillances d’agents ; la DLQ préserve les messages échoués |
| Pas de gouvernance de communication agent-à-agent | La mémoire partagée est isolée par périmètre d’agent ; les protocoles d’escalade se déclenchent quand les transferts dépassent les seuils de risque |
| Pas de supervision d’orchestration | Le canevas de workflow visuel montre chaque nœud d’agent, flux de données, superpositions de mémoire et badges de cycle en temps réel |
Construire en avance sur la réglementation
Les régulateurs vont traiter la gouvernance multi-agents. Le comité de l’Article 112 du EU AI Act examine déjà les architectures IA émergentes. L’initiative agents du NIST en expansion inclut l’identité et l’autorisation multi-agents.
Les entreprises qui construisent l’infrastructure de gouvernance multi-agents maintenant gagnent trois avantages :
- Préparation à la conformité — quand les réglementations multi-agents arrivent, l’infrastructure est déjà en place
- Réduction des risques — les défaillances en cascade et les lacunes de responsabilité sont traitées indépendamment de la réglementation
- Positionnement concurrentiel — démontrez la maturité de gouvernance aux clients, partenaires et auditeurs
Le EU AI Act gouverne les agents individuels. Qui gouverne la conversation entre eux ? C’est la question à laquelle les entreprises doivent répondre avant le 2 août.
Consultez Gouvernance multi-agents pour l’infrastructure complète de gouvernance multi-agents de JieGou. En savoir plus sur la conformité EU AI Act.