La Nouvelle Menace Interne
En 2024, une grande partie de la conversation sur la sécurité autour de l’IA s’est concentrée sur l’injection de prompts, à savoir si un utilisateur pouvait contraindre un chatbot à produire une sortie inappropriée ou trompeuse.
Fin 2025, le profil de risque a changé. Les organisations déploient de plus en plus d’agents IA qui ne se contentent pas de générer du texte, mais qui entreprennent des actions.
Dans certains environnements, les agents sont désormais utilisés pour écrire et déployer du code, exécuter des requêtes de base de données, modifier des configurations cloud et initier des flux de travail opérationnels. Ces systèmes peuvent être de puissants multiplicateurs de force. Ils peuvent également introduire une surface d’attaque nouvelle et sous-estimée.
Un agent autorisé à exécuter des actions peut, en pratique, avoir un impact comparable à celui d’un utilisateur humain ayant des privilèges similaires. Lorsque de tels agents sont déployés avec des permissions trop larges, des frontières d’identité faibles ou une surveillance limitée, ils représentent une forme de risque interne, qu’il soit intentionnel ou accidentel.
Le Risque d’une Agence Excessive
Le Top 10 OWASP pour les Applications de Grands Modèles de Langage (2025) identifie l’Agence Excessive (LLM06) comme une catégorie de vulnérabilité critique. Il décrit les systèmes où les agents se voient accorder des capacités ou une autonomie au-delà de ce qui est opérationnellement nécessaire.
Les facteurs contributifs courants incluent :
- Fonctionnalité excessive : Accès à des outils ou intégrations qui dépassent le rôle défini de l’agent.
- Permission excessive : Accès en lecture ou en écriture à des données et systèmes en dehors du périmètre prévu de l’agent.
- Autonomie non bornée : La capacité d’exécuter des actions à fort impact sans autorisation ou validation secondaire.
Considérez un agent de support client bénéficiant d’un accès en écriture à une base de données de production pour « vérifier le statut d’une commande ». Dans une telle configuration, un seul prompt compromis, une erreur de classification ou une erreur logique pourrait entraîner la modification ou la suppression de données, bien au-delà de l’intention initiale du système.
Ce n’est pas une préoccupation hypothétique. C’est un résultat prévisible d’une gouvernance insuffisante.
Architecture d’Agent Centrée sur l’Identité
Chez Evodant, nous traitons les agents non pas comme des composants logiciels génériques, mais comme des acteurs porteurs d’identité au sein d’un système.
Dans les environnements de haute assurance, cela implique l’application des principes établis de Gestion des Identités et des Accès (IAM) aux agents, tout comme nous le faisons pour les utilisateurs humains et les comptes de service.
1. Les Agents Nécessitent une Identité Explicite
Un agent ne doit pas hériter implicitement des permissions de son développeur ou de l’application hôte. Il doit se voir attribuer une identité de service distincte, authentifiée via le fournisseur d’identité de l’organisation, et dont la portée est définie selon son rôle.
2. Le Moindre Privilège s’Applique aux Agents
Les agents doivent être restreints au minimum de données et d’outils requis pour remplir leur fonction (le principe habituel du moindre privilège). La séparation logique entre les agents, tant au niveau de l’accès aux données que de la disponibilité des outils, réduit le rayon d’impact et limite les conséquences d’une compromission ou d’une erreur.
3. Humain-dans-la-Boucle pour les Actions à Hautes Conséquences
Pour les actions ayant un impact matériel, telles que la suppression de données, le transfert de fonds ou la modification de configurations de production, l’exécution entièrement autonome introduit un risque significatif.
Dans ces cas, un modèle plus sûr est l’exécution par étapes :
- L’agent prépare ou rédige l’action.
- La proposition est présentée à un opérateur humain autorisé (humain-dans-la-boucle).
- L’exécution ne se poursuit qu’après approbation explicite, soutenue par une provenance cryptographique et une journalisation d’audit.
Cette approche préserve l’efficacité tout en maintenant la responsabilité.
Gouvernance Ă la Vitesse de la Machine
Les systèmes d’IA opèrent à la vitesse de la machine. Les mécanismes de gouvernance doivent être conçus pour fonctionner au même rythme, sans compter sur la confiance informelle ou l’examen manuel comme garde-fou par défaut.
À mesure que les systèmes agentiques deviennent plus capables, les organisations doivent étendre leurs modèles de sécurité au-delà des réseaux et des terminaux pour inclure l’intention, l’autorisation et la provenance.
Si un agent agit et que vous ne pouvez pas répondre clairement qui a autorisé cette action, sous quelle identité et dans quelles contraintes, la gouvernance a déjà échoué.
La capacité agentique sans contrôles centrés sur l’identité n’est pas de l’autonomie, c’est un risque non géré.