AI Agents Guardrails Checklist and Decision Framework | Florian Nègre

AI Agents: Guardrails Checklist and Architecture Decision Framework

Two questions come up in every conversation about deploying agentic AI in B2B and FinTech revenue operations. First: what guardrails do we need before this agent goes live? Second: should we use MCP, RAG or a direct API for this use case? This resource answers both, in checklist format. Part 1 is a pre-deployment guardrails checklist organized by risk category. Part 2 is an IF/THEN decision framework for choosing the right agent-to-system connection architecture. Both are designed to be used directly by revenue, growth and operations teams without requiring a technical background.

Part 1 AI Agents Guardrails Checklist

Use this checklist before deploying any autonomous AI agent in a production environment. Items are organized by category. Higher-risk actions (write access, outreach, financial decisions) require all items in categories 1 through 4 to be completed before the agent is enabled for those capabilities.

1. Scope and Authorization Before any deployment
Define the agent's task scope in writing before building State explicitly what the agent is authorized to do, what systems it can access, and what decisions it can make autonomously versus which require human approval. This document becomes the reference for all permission settings.
Assign a named owner responsible for the agent's behavior in production Every deployed agent must have a human owner who monitors its behavior, reviews anomalies, and is accountable when the agent produces incorrect or harmful outputs.
Document what the agent should never do, not only what it should do Explicit prohibitions are as important as authorized actions. Common examples: never delete records, never send external communications without approval, never access data outside the defined scope, never retry a failed action more than twice without human review.
Version-control the agent's system prompt and configuration Every change to the agent's instructions, tool list or permission profile must be tracked, dated and attributed. Uncontrolled prompt drift is a common cause of behavior regression in production agents.
2. Access Control and Data Minimization Before connecting to any live system
Apply least-privilege permissions to every MCP server and API connection Read-only access by default. Write access granted per action type, scoped to the minimum set of fields and records the agent needs for its defined task. Never grant blanket write access to an entire CRM object.
Restrict the agent's data access to records relevant to its task A lead qualification agent does not need access to billing records. A pipeline review agent does not need access to HR data. Scope data access by object type, not by system. Verify restrictions are enforced at the MCP server or API layer, not only in the agent prompt.
Implement field-level filtering on CRM and database connections Configure MCP servers and API responses to return only the fields the agent needs. Returning full record objects to an agent that only needs three fields expands the attack surface for prompt injection and increases privacy risk.
Validate all external inputs before they reach the agent's context Data fetched from CRM records, enrichment APIs or web search can contain adversarial content designed to hijack the agent's behavior (prompt injection). Sanitize external inputs before injecting them into the agent's context window.
Rotate and store API keys and tokens in a secrets manager, never in code Credentials used by MCP servers and API integrations must be stored in a dedicated secrets management system (AWS Secrets Manager, HashiCorp Vault, or equivalent). Hardcoded credentials in agent configuration files are a critical security failure.
3. Human-in-the-Loop Controls Required for write and outreach actions
Define which actions require human approval before execution Mandatory human approval categories: all external outbound communications, bulk CRM updates above a defined record threshold, any action that cannot be undone (deletes, sends, payments), and any decision with legal or financial consequences for a customer.
Build the approval queue as a real operational interface, not a theoretical mechanism The human reviewer must be able to see the agent's proposed action, the data it used to reach that decision, and an override option. An approval mechanism that exists only in documentation is not a guardrail.
Set a maximum autonomous action rate per time window Cap the number of actions an agent can take without human review within a defined period (for example, no more than 20 CRM writes per hour, no more than 5 outbound messages per day per agent). This prevents runaway behavior from causing large-scale damage before it is detected.
Test the human override mechanism before go-live Run a dry-run scenario where the agent produces an incorrect output and verify that a human reviewer can identify, intercept and override it within the expected response window. Document the test result.
4. Monitoring and Observability Required for all production agents
Instrument the agent with real-time monitoring before deployment Monitoring must be active from the first production task, not added retrospectively after an incident. At minimum: task completion rate, tool call success/failure rate, output quality signal (human-rated sample), and latency per tool call.
Define alert thresholds for abnormal behavior patterns Set alerts for: error rate above 5% on any single tool, task completion rate dropping below 80%, any agent action outside its defined scope, and any tool call with parameters that do not match the expected schema. Alerts must notify the agent owner, not just log to a dashboard.
Implement a circuit breaker that halts the agent when thresholds are exceeded When error rate, action volume or unexpected behavior exceeds the defined threshold, the agent must stop autonomously executing and route pending tasks to a human queue. Automatic resumption without human review is not acceptable.
Schedule a weekly review of agent behavior logs for the first month Automated monitoring catches threshold violations. Human review catches subtle drift: outputs that are technically valid but systematically biased, incomplete or off-scope. Weekly review for the first four weeks, then monthly.
5. Audit Logging Non-negotiable for FinServ environments
Log every tool call with full context: agent ID, timestamp, tool, parameters, output The audit log must be detailed enough to reconstruct exactly what the agent did, with what data, at what time, and what the result was. Partial logs that record only the final output are insufficient for debugging or compliance purposes.
Store logs in an append-only system that the agent cannot modify The agent must not have write access to its own audit log. Use a separate logging service with write-once semantics. The integrity of the audit trail depends on it being tamper-proof.
Log human override events with reviewer identity and rationale When a human overrides an agent decision, log: who performed the override, the original agent output, the override decision, the time elapsed between agent action and human review, and the stated reason if provided.
Define log retention aligned to your regulatory obligations EU Financial Services regulations typically require 5 to 7 years for records related to customer-facing decisions. B2B SaaS contexts may have shorter requirements. Define retention before deployment; retroactive retention extension is technically complex and often incomplete.
6. Failure Handling and Rollback Before go-live on write-capable agents
Define the rollback procedure for every write action the agent can perform For each type of CRM write, outreach send or workflow trigger, document: can it be undone? If yes, what is the procedure? If no, what is the mitigation? Never deploy a write-capable agent without a tested rollback path for its highest-risk action.
Implement explicit error handling for every tool call, not only happy-path flows The agent must handle tool unavailability, API timeouts, rate limit errors and malformed responses gracefully, without silently continuing on incomplete data. Each error type must produce a defined behavior: retry once, escalate to human queue, or abort and log.
Test failure scenarios before production: tool unavailable, data missing, permission denied Run at minimum three failure tests before go-live: (1) primary tool server unavailable, (2) data record not found, (3) write permission denied. Verify the agent handles each without producing incorrect outputs or entering an error loop.
Part 2 Decision Framework: MCP vs RAG vs API

Use this framework to choose the right connection architecture for each agent use case. Start with the concept definitions, then apply the IF/THEN decision table. Most production agentic systems use a combination of all three: RAG for knowledge, MCP for live action, direct APIs for fixed integrations.

The Three Approaches at a Glance

MCP

Model Context Protocol

Tool execution in live systems. The agent discovers available servers at runtime, selects tools dynamically, and reads or writes to external systems: CRM, databases, calendars, comms. Actions, not just answers.

RAG

Retrieval-Augmented Generation

Knowledge retrieval from stored documents. Text chunks are fetched from a vector database and injected into the model's context. Read-only. Designed for unstructured knowledge bases that change over time without model retraining.

API

Direct API Integration

A fixed, hardcoded call between two systems. Predetermined parameters, predetermined timing. No agent autonomy in selecting when or how to call. Best for predictable, high-frequency or latency-sensitive integrations.

IF/THEN Decision Table

Use RAG Knowledge retrieval
IF
The agent needs to answer questions from internal documents, playbooks, past deal notes or compliance policies
IF
The knowledge base contains unstructured text (PDFs, Word docs, meeting notes, emails) that changes over time without model retraining
IF
The agent needs to retrieve context-specific answers from a large corpus that is too long to fit in the context window
IF
The use case is read-only: the agent should retrieve information, not modify records or trigger actions
Use MCP Live tool execution
IF
The agent needs to read from or write to live external systems: CRM records, pipeline data, calendars, communication platforms, databases
IF
The agent needs to combine multiple tools in an unpredictable sequence based on the task context (example: read CRM, then enrich, then search web, then update CRM)
IF
The same system integration needs to be reused by multiple agents with different permission profiles
IF
Compliance requires a standardized, auditable tool call log across all agent-to-system interactions
IF
The agent is running in a regulated Financial Services environment and all system interactions must be logged and attributable
Use Direct API Fixed integration
IF
The integration is fixed and predictable: always the same endpoint, same parameters, same timing (scheduled sync, webhook, event trigger)
IF
The target system has no published MCP server and building one is not justified by the integration volume or reuse potential
IF
Latency is critical and the MCP abstraction layer would add unacceptable overhead (fraud scoring, real-time pricing, high-frequency triggers)
IF
The integration is a proprietary internal system where the team controls both ends and no other agent will ever need to reuse it
Use a Combination Most production systems
IF
The agent needs to answer from a knowledge base AND take actions in live systems within the same workflow: use RAG + MCP
IF
The agent uses MCP for most integrations but one target system has no server yet: use MCP for available systems + direct API for the gap
IF
The workflow involves retrieving playbook context (RAG), acting on live CRM data (MCP), and calling a proprietary scoring model (API): use all three in sequence

The practical rule of thumb: RAG answers from what you know. MCP acts on what exists. APIs call what is already wired. If your agent needs to do all three in one workflow, that is normal. Build the RAG index, deploy the MCP servers, and keep direct API calls for the integrations that do not yet have a server or where latency is critical.

Why this matters in 2026: A 2025 survey found that 61% of B2B companies using RAG had use cases that actually required live system access. The most common architectural error: building RAG-only systems for tasks that need action, not just knowledge retrieval.

Separately, fewer than 15% of companies with deployed AI agents had implemented formal guardrails before going to production. The majority added monitoring and access controls reactively, after an incident.

Guardrails and architecture decisions made before deployment are significantly cheaper to implement than remediations made after a production failure or a compliance finding.

Deploying AI agents in a B2B or FinTech revenue context and want a compliance-first implementation framework?

Let's build it together
Last updated: March 2026. MCP server ecosystem and agentic AI best practices evolve rapidly. Framework reflects the state of the art as of Q1 2026.

Agents IA : Checklist des Garde-fous et Cadre de Décision Architectural

Deux questions reviennent dans chaque conversation sur le déploiement d'agents IA agentiques en revenue operations B2B et FinTech. Première question : quels garde-fous faut-il mettre en place avant de mettre cet agent en production ? Deuxième question : faut-il utiliser MCP, RAG ou une API directe pour ce cas d'usage ? Cette ressource répond aux deux, en format checklist. La Partie 1 est une checklist de garde-fous pré-déploiement organisée par catégorie de risque. La Partie 2 est un cadre de décision IF/ALORS pour choisir la bonne architecture de connexion agent-système. Les deux sont conçus pour être utilisés directement par les équipes revenue, growth et operations.

Partie 1 Checklist des Garde-fous pour Agents IA

Utilisez cette checklist avant de déployer tout agent IA autonome dans un environnement de production. Les points sont organisés par catégorie. Les actions à risque plus élevé (accès en écriture, outreach, décisions financières) nécessitent que tous les points des catégories 1 à 4 soient complétés avant d'activer ces capacités pour l'agent.

1. Périmètre et Autorisation Avant tout déploiement
Définir le périmètre de tâche de l'agent par écrit avant de le construire Énoncer explicitement ce que l'agent est autorisé à faire, quels systèmes il peut accéder, et quelles décisions il peut prendre de manière autonome par opposition à celles qui nécessitent une approbation humaine. Ce document devient la référence pour tous les paramètres de permissions.
Désigner un propriétaire nommé responsable du comportement de l'agent en production Chaque agent déployé doit avoir un propriétaire humain qui surveille son comportement, examine les anomalies et est responsable quand l'agent produit des résultats incorrects ou nuisibles.
Documenter ce que l'agent ne doit jamais faire, pas seulement ce qu'il doit faire Les interdictions explicites sont aussi importantes que les actions autorisées. Exemples courants : ne jamais supprimer des enregistrements, ne jamais envoyer de communications externes sans approbation, ne jamais accéder à des données hors du périmètre défini, ne jamais relancer une action échouée plus de deux fois sans revue humaine.
Versionner le system prompt et la configuration de l'agent Chaque modification des instructions de l'agent, de sa liste d'outils ou de son profil de permissions doit être tracée, datée et attribuée. La dérive non contrôlée des prompts est une cause fréquente de régression comportementale chez les agents en production.
2. Contrôle des Accès et Minimisation des Données Avant connexion à tout système en direct
Appliquer le principe de moindre privilège à chaque serveur MCP et connexion API Lecture seule par défaut. Accès en écriture accordé par type d'action, limité au minimum de champs et d'enregistrements nécessaires à la tâche définie. Ne jamais accorder un accès en écriture général à un objet CRM entier.
Limiter l'accès aux données de l'agent aux enregistrements pertinents pour sa tâche Un agent de qualification de leads n'a pas besoin d'accéder aux enregistrements de facturation. Un agent de revue de pipeline n'a pas besoin d'accéder aux données RH. Limiter l'accès aux données par type d'objet, pas par système. Vérifier que les restrictions sont appliquées au niveau du serveur MCP ou de l'API, pas seulement dans le prompt de l'agent.
Implémenter le filtrage au niveau des champs sur les connexions CRM et bases de données Configurer les serveurs MCP et les réponses API pour ne retourner que les champs dont l'agent a besoin. Retourner des objets d'enregistrement complets à un agent qui n'a besoin que de trois champs élargit la surface d'attaque pour l'injection de prompts et augmente le risque de confidentialité.
Valider toutes les entrées externes avant qu'elles atteignent le contexte de l'agent Les données récupérées depuis des fiches CRM, des APIs d'enrichissement ou des recherches web peuvent contenir du contenu adversarial conçu pour détourner le comportement de l'agent (injection de prompts). Assainir les entrées externes avant de les injecter dans la fenêtre de contexte de l'agent.
Stocker les clés API et tokens dans un gestionnaire de secrets, jamais dans le code Les identifiants utilisés par les serveurs MCP et les intégrations API doivent être stockés dans un système dédié de gestion des secrets (AWS Secrets Manager, HashiCorp Vault ou équivalent). Les identifiants codés en dur dans les fichiers de configuration sont une défaillance de sécurité critique.
3. Contrôles Human-in-the-Loop Requis pour les actions d'écriture et d'outreach
Définir quelles actions nécessitent une approbation humaine avant exécution Catégories d'approbation humaine obligatoire : toutes les communications sortantes externes, les mises à jour CRM en masse au-delà d'un seuil d'enregistrements défini, toute action irréversible (suppressions, envois, paiements), et toute décision ayant des conséquences juridiques ou financières pour un client.
Construire la file d'approbation comme une interface opérationnelle réelle, pas un mécanisme théorique Le réviseur humain doit pouvoir voir l'action proposée par l'agent, les données qu'il a utilisées pour prendre cette décision, et une option de substitution. Un mécanisme d'approbation qui n'existe que dans la documentation n'est pas un garde-fou.
Définir un taux maximum d'actions autonomes par fenêtre temporelle Limiter le nombre d'actions qu'un agent peut effectuer sans revue humaine dans une période définie (par exemple, pas plus de 20 écritures CRM par heure, pas plus de 5 messages sortants par jour par agent). Cela empêche un comportement incontrôlé de causer des dommages à grande échelle avant d'être détecté.
Tester le mécanisme de substitution humaine avant le go-live Effectuer un scénario de test où l'agent produit un output incorrect et vérifier qu'un réviseur humain peut l'identifier, l'intercepter et le corriger dans la fenêtre de réponse attendue. Documenter le résultat du test.
4. Monitoring et Observabilité Requis pour tous les agents en production
Instrumenter l'agent avec un monitoring en temps réel avant le déploiement Le monitoring doit être actif dès la première tâche en production, pas ajouté rétrospectivement après un incident. Au minimum : taux de complétion des tâches, taux de succès/échec des appels d'outils, signal de qualité des outputs (échantillon évalué par un humain), et latence par appel d'outil.
Définir des seuils d'alerte pour les comportements anormaux Déclencher des alertes pour : taux d'erreur supérieur à 5% sur un seul outil, taux de complétion des tâches tombant en dessous de 80%, toute action de l'agent hors de son périmètre défini, et tout appel d'outil avec des paramètres ne correspondant pas au schéma attendu. Les alertes doivent notifier le propriétaire de l'agent, pas seulement journaliser dans un tableau de bord.
Implémenter un circuit breaker qui stoppe l'agent quand les seuils sont dépassés Quand le taux d'erreur, le volume d'actions ou le comportement inattendu dépasse le seuil défini, l'agent doit arrêter d'exécuter de manière autonome et router les tâches en attente vers une file humaine. La reprise automatique sans revue humaine n'est pas acceptable.
Planifier une revue hebdomadaire des logs de comportement de l'agent le premier mois Le monitoring automatisé détecte les violations de seuils. La revue humaine détecte la dérive subtile : des outputs techniquement valides mais systématiquement biaisés, incomplets ou hors périmètre. Revue hebdomadaire les quatre premières semaines, puis mensuelle.
5. Journalisation d'Audit Non négociable en environnement FinServ
Journaliser chaque appel d'outil avec son contexte complet : ID agent, horodatage, outil, paramètres, output Le log d'audit doit être suffisamment détaillé pour reconstruire exactement ce que l'agent a fait, avec quelles données, à quel moment, et quel en a été le résultat. Les logs partiels qui n'enregistrent que l'output final sont insuffisants pour le débogage ou la conformité.
Stocker les logs dans un système append-only que l'agent ne peut pas modifier L'agent ne doit pas avoir accès en écriture à son propre log d'audit. Utiliser un service de journalisation séparé avec une sémantique d'écriture unique. L'intégrité de la piste d'audit dépend de son inviolabilité.
Journaliser les événements de substitution humaine avec l'identité du réviseur et le motif Quand un humain substitue une décision de l'agent, journaliser : qui a effectué la substitution, l'output original de l'agent, la décision de substitution, le délai écoulé entre l'action de l'agent et la revue humaine, et le motif indiqué si fourni.
Définir la durée de conservation des logs alignée à vos obligations réglementaires Les réglementations financières européennes exigent généralement 5 à 7 ans pour les enregistrements liés aux décisions client. Les contextes B2B SaaS peuvent avoir des exigences plus courtes. Définir la conservation avant le déploiement ; l'extension rétroactive est techniquement complexe et souvent incomplète.
6. Gestion des Pannes et Rollback Avant go-live sur agents à capacité d'écriture
Définir la procédure de rollback pour chaque action d'écriture que l'agent peut effectuer Pour chaque type d'écriture CRM, envoi d'outreach ou déclenchement de workflow, documenter : peut-on l'annuler ? Si oui, quelle est la procédure ? Si non, quelle est l'atténuation ? Ne jamais déployer un agent à capacité d'écriture sans chemin de rollback testé pour son action à plus haut risque.
Implémenter une gestion explicite des erreurs pour chaque appel d'outil, pas seulement les flux sans erreur L'agent doit gérer l'indisponibilité des outils, les timeouts API, les erreurs de rate limit et les réponses malformées de manière gracieuse, sans continuer silencieusement sur des données incomplètes. Chaque type d'erreur doit produire un comportement défini : relancer une fois, escalader vers la file humaine, ou abandonner et journaliser.
Tester les scénarios d'échec avant la production : outil indisponible, données manquantes, permission refusée Effectuer au minimum trois tests d'échec avant le go-live : (1) serveur d'outil principal indisponible, (2) enregistrement de données introuvable, (3) permission d'écriture refusée. Vérifier que l'agent gère chacun sans produire d'outputs incorrects ni entrer dans une boucle d'erreur.
Partie 2 Cadre de Décision : MCP vs RAG vs API

Utilisez ce cadre pour choisir la bonne architecture de connexion pour chaque cas d'usage d'agent. Commencez par les définitions des concepts, puis appliquez le tableau de décision IF/ALORS. La plupart des systèmes agentiques en production utilisent une combinaison des trois : RAG pour la connaissance, MCP pour l'action en direct, APIs directes pour les intégrations fixes.

Les Trois Approches en un Coup d'Oeil

MCP

Model Context Protocol

Exécution d'outils dans des systèmes en direct. L'agent découvre les serveurs disponibles au moment de l'exécution, sélectionne les outils dynamiquement, et lit ou écrit dans des systèmes externes : CRM, bases de données, calendriers, communication. Des actions, pas seulement des réponses.

RAG

Retrieval-Augmented Generation

Récupération de connaissances depuis des documents stockés. Des extraits de texte sont récupérés d'une base vectorielle et injectés dans le contexte du modèle. Lecture seule. Conçu pour les bases de connaissances non structurées qui évoluent sans réentraîner le modèle.

API

Intégration API Directe

Un appel fixe et codé en dur entre deux systèmes. Paramètres prédéfinis, timing prédéfini. Aucune autonomie de l'agent pour décider quand ou comment l'appeler. Adapté aux intégrations prévisibles, à haute fréquence ou sensibles à la latence.

Tableau de Décision IF/ALORS

Utiliser RAG Récupération de connaissances
SI
L'agent doit répondre à des questions depuis des documents internes, playbooks, notes de deals passés ou politiques de conformité
SI
La base de connaissances contient du texte non structuré (PDF, docs Word, notes de réunion, emails) qui évolue dans le temps sans réentraîner le modèle
SI
L'agent doit récupérer des réponses contextuelles depuis un corpus trop large pour tenir dans la fenêtre de contexte
SI
Le cas d'usage est en lecture seule : l'agent doit récupérer des informations, pas modifier des enregistrements ou déclencher des actions
Utiliser MCP Exécution d'outils en direct
SI
L'agent doit lire ou écrire dans des systèmes externes en direct : fiches CRM, données pipeline, calendriers, plateformes de communication, bases de données
SI
L'agent doit combiner plusieurs outils dans une séquence imprévisible selon le contexte de la tâche (exemple : lire le CRM, puis enrichir, puis rechercher sur le web, puis mettre à jour le CRM)
SI
La même intégration système doit être réutilisée par plusieurs agents avec des profils de permissions différents
SI
La conformité requiert un log d'appels d'outils standardisé et auditable sur toutes les interactions agent-système
SI
L'agent opère dans un environnement réglementé de services financiers et toutes les interactions système doivent être journalisées et attribuables
Utiliser une API Directe Intégration fixe
SI
L'intégration est fixe et prévisible : toujours le même endpoint, mêmes paramètres, même timing (synchronisation planifiée, webhook, déclencheur événementiel)
SI
Le système cible n'a pas de serveur MCP publié et en construire un n'est pas justifié par le volume d'intégration ou le potentiel de réutilisation
SI
La latence est critique et la couche d'abstraction MCP ajouterait une surcharge inacceptable (scoring anti-fraude, tarification en temps réel, déclencheurs haute fréquence)
SI
L'intégration concerne un système interne propriétaire où l'équipe contrôle les deux côtés et aucun autre agent n'aura jamais besoin de la réutiliser
Utiliser une Combinaison La plupart des systèmes en production
SI
L'agent doit répondre depuis une base de connaissances ET prendre des actions dans des systèmes en direct dans le même workflow : utiliser RAG + MCP
SI
L'agent utilise MCP pour la plupart des intégrations mais un système cible n'a pas encore de serveur : utiliser MCP pour les systèmes disponibles + API directe pour le manque
SI
Le workflow implique de récupérer le contexte du playbook (RAG), d'agir sur les données CRM en direct (MCP), et d'appeler un modèle de scoring propriétaire (API) : utiliser les trois en séquence

La règle pratique à retenir : RAG répond depuis ce que vous savez. MCP agit sur ce qui existe. Les APIs appellent ce qui est déjà câblé. Si votre agent doit faire les trois dans un seul workflow, c'est tout à fait normal. Construisez l'index RAG, déployez les serveurs MCP, et gardez les appels API directs pour les intégrations qui n'ont pas encore de serveur ou pour lesquelles la latence est critique.

Pourquoi c'est important en 2026 : Une enquête 2025 a révélé que 61% des entreprises B2B utilisant RAG avaient des cas d'usage nécessitant en réalité un accès aux systèmes en direct. L'erreur architecturale la plus fréquente : construire des systèmes RAG-only pour des tâches qui nécessitent de l'action, pas seulement de la récupération de connaissances.

Par ailleurs, moins de 15% des entreprises ayant des agents IA déployés avaient mis en place des garde-fous formels avant de passer en production. La majorité a ajouté le monitoring et les contrôles d'accès de manière réactive, après un incident.

Les garde-fous et les décisions d'architecture pris avant le déploiement sont significativement moins coûteux à mettre en oeuvre que les corrections effectuées après une panne en production ou un constat de non-conformité.

Vous déployez des agents IA en contexte B2B ou FinTech et cherchez un cadre d'implémentation compliance-first ?

Construisons-le ensemble
Dernière mise à jour : mars 2026. L'écosystème des serveurs MCP et les meilleures pratiques agentiques évoluent rapidement. Ce cadre reflète l'état de l'art au T1 2026.