La course au déploiement de l’IA agentique est lancée. Dans toute l’entreprise, les systèmes capables de planifier, d’agir et de collaborer entre les applications métiers promettent une efficacité sans précédent. Mais dans la ruée vers l’automatisation, un élément important est négligé : la sécurité évolutive. Nous construisons une main-d’œuvre de travailleurs du numérique en ne leur offrant pas de moyens sécurisés pour se connecter, accéder aux données et faire leur travail sans créer de risques catastrophiques.
Le problème fondamental est que la gestion traditionnelle des identités et des accès (IAM) conçue pour les humains s’effondre à l’échelle agent. Les contrôles tels que les rôles fixes, les mots de passe durables et les autorisations uniques sont inefficaces lorsque les identités non humaines peuvent être 10 fois plus nombreuses que les humains. Pour exploiter la puissance de l’IA agentique, l’identité doit évoluer d’un simple contrôleur de connexion à un plan de contrôle dynamique pour l’ensemble de vos opérations d’IA.
“Le chemin le plus rapide vers une IA responsable est d’éviter les données réelles. Utilisez des données synthétiques pour prouver la valeur, puis gagnez le droit de toucher à la réalité.” – Sean Kanungo, conférencier principal et stratège en innovation ; Auteur à succès de The Bold Ones
Pourquoi votre IAM centrée sur l’humain est une cible facile
L’IA agentique n’utilise pas seulement des logiciels ; Il se comporte comme un utilisateur. Il s’authentifie auprès du système, assume des rôles et effectue des appels API. Si vous traitez ces agents comme de simples fonctionnalités d’une application, vous invitez à une dérive invisible des privilèges et à des actions manquantes. Un seul agent disposant d’autorisations excessives peut exfiltrer des données ou déclencher des processus métier erronés à la vitesse d’une machine, sans que personne ne s’en rende compte jusqu’à ce qu’il soit trop tard.
La nature statique de l’ancien IAM constitue une faiblesse majeure. Vous ne pouvez pas prédéfinir un rôle spécifique pour un agent dont les tâches et l’accès aux données requis peuvent changer quotidiennement. La seule façon de garantir l’exactitude des décisions d’accès est de faire passer l’application des politiques d’octrois ponctuels à une évaluation continue et d’exécution.
Prouver la qualité avant les informations de production
Le guide de Kanungo propose une rampe d’accès pratique. Commencez avec des ensembles de données synthétiques ou masqués pour valider les flux de travail, les étendues et les barrières des agents. Une fois vos politiques, journaux et chemins de bris de verre capturés dans ce bac à sable, vous pouvez faire évoluer les agents vers des données réelles en toute confiance et avec des preuves d’audit claires.
Construire un modèle opérationnel centré sur l’identité pour l’IA
Sécuriser cette nouvelle main-d’œuvre nécessite un changement de mentalité. Chaque agent d’IA doit être traité comme un citoyen de premier ordre au sein de votre écosystème d’identité.
Premièrement, chaque agent a besoin d’une identité unique et vérifiable. Il ne s’agit pas seulement d’un identifiant technique ; Il doit être lié à un propriétaire humain, à un cas d’utilisation métier spécifique et à une nomenclature logicielle (SBOM). L’ère des comptes de services partagés est révolue ; C’est l’équivalent de donner une clé à une foule sans visage.
Deuxièmement, remplacez les rôles définis et oubliés par des autorisations basées sur la session et tenant compte des risques. L’accès doit être accordé en temps opportun, permettant un travail immédiat et les ensembles de données minimaux requis, puis automatiquement révoqué une fois le travail terminé. Pensez-y comme si vous donniez à un agent la clé d’une salle pour une réunion, et non la clé d’un bâtiment entier.
Trois piliers d’une architecture de sécurité d’agent évolutive
Autorisation contextuelle au cœur. L’approbation ne peut plus être un simple oui ou non à la porte. Cela devrait être une conversation continue. Le système doit évaluer le contexte en temps réel. La posture numérique de l’agent est-elle vérifiée ? Demande-t-il des données générales à ses fins ? Cet accès se produit-il pendant une fenêtre opérationnelle normale ? Cette évaluation dynamique permet à la fois sécurité et rapidité.
Accès aux données spécifiques à la périphérie. La dernière ligne de défense est la couche de données elle-même. En intégrant l’application des politiques directement dans le moteur de requête de données, vous pouvez appliquer la sécurité au niveau des lignes et des colonnes en fonction de l’intention déclarée de l’agent. Un agent du service client doit être empêché d’exécuter automatiquement une requête conçue pour l’analyse financière. La liaison d’intention garantit que les données sont utilisées comme prévu, et pas seulement accessibles par les identités autorisées.
Inviolable par défaut. Dans le monde des actions autonomes, l’auditabilité n’est pas négociable. Chaque décision d’accès, requête de données et appel d’API doit être enregistré de manière immuable, capturant le qui, quoi, où et pourquoi. Liez les journaux afin qu’ils soient clairs et rejouables pour les auditeurs ou les intervenants en cas d’incident, fournissant une description claire de l’activité de chaque agent.
Une feuille de route pratique pour commencer
Commencez par un inventaire d’identité. Cataloguez toutes les identités non humaines et les comptes de service. Vous trouverez probablement du partage et des dispositions supplémentaires. Commencez à attribuer des identités uniques à chaque charge de travail d’agent.
Pilot est une plateforme d’accès juste à temps. Mettez en œuvre un outil qui fournit une certification de courte durée et limitée pour un projet spécifique. Cela prouve le concept et montre les avantages opérationnels.
Certificat de mandat à court terme Émettez des jetons qui expirent en quelques minutes et non en mois. Recherchez et supprimez les clés et secrets API statiques du code et de la configuration
Configurez un bac à sable de données synthétiques. Vérifiez d’abord les flux de travail, les étendues, les invites et les politiques des agents pour les données synthétiques ou masquées. Publiez sur les données d’origine uniquement après avoir adopté les politiques de contrôle, de journalisation et de sortie.
Un agent effectue des exercices sur table lors de l’événement. Entraînez-vous à répondre à une fuite de certificat, à injecter une invite ou à lancer un outil. Prouvez que vous pouvez révoquer l’accès, alterner les informations d’identification et isoler un agent en quelques minutes.
résultat net
Vous ne pouvez pas gérer un avenir agentique et axé sur l’IA avec des outils d’identité de l’ère humaine. Les organisations qui gagneront reconnaîtront l’identité comme le système nerveux central des opérations d’IA. Contrôlez l’identité, supprimez l’autorisation au moment de l’exécution, liez l’accès aux données à l’intention et prouvez la valeur des données synthétiques avant qu’elles ne touchent la réalité. Faites cela et vous pourrez évoluer jusqu’à un million d’agents sans augmenter votre risque de violation.
Michelle Buckner est une ancienne responsable de la sécurité des systèmes d’information de la NASA (ISSO).







