2025 était censé être l’année de l’agent IA, non ?
Pas tout à fait, admettons Google Cloud et Replit, deux acteurs et partenaires majeurs dans le domaine des agents d’IA.Codage vibratoire” mouvement – lors d’un récent événement VB Impact Series.
Même s’ils développent eux-mêmes des outils agents, les dirigeants des deux sociétés affirment que les capacités ne sont pas encore tout à fait au point.
Cette réalité limitée se résume à des difficultés avec les flux de travail existants, les données fragmentées et les modèles de gouvernance immatures. En outre, les entreprises comprennent fondamentalement à tort que les agents ne sont pas comme les autres technologies : ils nécessitent de repenser et de repenser fondamentalement les flux de travail et les processus.
Alors que les entreprises créent des agents pour automatiser les tâches, « la plupart d’entre eux sont des exemples de jouets », a déclaré Amjad Massad, PDG et fondateur de Replite, lors de l’événement. “Ils sont excités, mais quand ils commencent à le déployer, cela ne fonctionne pas vraiment très bien.”
Agent de construction basé sur les propres erreurs de Replit
La fiabilité et l’intégration, plutôt que l’intelligence, sont les deux principaux obstacles au succès des agents d’IA, a noté Massad. Les agents échouent souvent lorsqu’ils sont exécutés pendant des périodes prolongées, accumulent des erreurs ou n’ont pas accès à des données propres et structurées.
Le problème avec les données d’entreprise est qu’elles sont désordonnées – elles sont structurées, non organisées et stockées partout – et leur exploration est difficile. En plus de cela, il existe de nombreuses choses non écrites que les gens font et qui sont difficiles à coder dans les agents, a déclaré Massad.
“L’idée selon laquelle les entreprises vont simplement déployer des agents et les agents vont remplacer les travailleurs ou automatiser les flux de travail, ce n’est pas le cas aujourd’hui”, a-t-il déclaré. “L’outillage n’est pas là.”
Au-delà des agents, il existe des outils d’utilisation informatique, qui peuvent prendre en charge l’espace de travail de l’utilisateur pour des tâches de base telles que la navigation sur le Web. Mais ils n’en sont qu’à leurs balbutiements et, malgré un battage médiatique accéléré, ils peuvent être bogués, peu fiables et même dangereux.
“Le problème est que les modèles d’utilisation des ordinateurs sont désormais très mauvais”, explique Massad. “Ils sont chers, ils sont lents, ils progressent, mais ils n’ont qu’un an.”
Ripplet apprend de ses propres erreurs plus tôt cette année, lorsque son codeur AI a été supprimé La base de code complète d’une entreprise Dans un essai. Massad a admis : « Les outils n’étaient pas assez matures », notant que l’entreprise a depuis séparé le développement de la production.
Des techniques telles que les tests en boucle, l’exécution vérifiable et l’isolation du développement sont essentielles, note-t-il, même si elles peuvent être extrêmement gourmandes en ressources. Ripplet a inclus des fonctionnalités in-the-loop dans la version 3 de son agent, et Massad affirme que son agent de nouvelle génération peut fonctionner de manière autonome pendant 200 minutes ; Certains l’ont fait fonctionner pendant 20 heures.
Il a néanmoins reconnu que les utilisateurs exprimaient leur frustration depuis longtemps. Lorsqu’ils envoient une « invite lourde », ils peuvent devoir attendre 20 minutes ou plus. Idéalement, ils ont exprimé qu’ils aimeraient s’engager dans une boucle plus créative où ils pourraient saisir plusieurs invites, travailler sur plusieurs tâches simultanément et ajuster la conception pendant que l’agent travaille.
“La manière de résoudre ce problème est le parallélisme, en créant plusieurs boucles d’agents et en les faisant travailler sur ces propriétés indépendantes, ce qui vous permet de faire un travail créatif en même temps”, a-t-il déclaré.
Les agents ont besoin d’un changement culturel
Au-delà de la perspective technique, il existe une barrière culturelle : les agents agissent de manière probabiliste, mais les entreprises traditionnelles sont construites sur des processus déterministes, a noté Mike Clark, directeur du développement de produits chez Google Cloud. Cela crée une inadéquation culturelle et opérationnelle, car les LLM sont exposés à de tout nouveaux outils, cadres d’orchestration et processus.
“Nous ne savons pas comment penser aux agents”, a déclaré Clark. “Nous ne savons pas comment déterminer ce que les agents peuvent faire.”
Ce que les entreprises font de bien est piloté par des processus ascendants, a-t-il noté : en intégrant des outils dans des logiciels sans code et à faible code et en dirigeant les tranchées vers des agents plus importants. Jusqu’à présent, les installations réussies ont été étroites, soigneusement espacées et fortement supervisées.
“Si je regarde 2025 et que cela promet d’être l’année des agents, c’est une année où beaucoup de gens ont passé à construire des prototypes”, a déclaré Clarke. “Maintenant, nous sommes au milieu de cet épisode à grande échelle.”
Comment sécuriser un monde sans pâturage ?
Un autre défi concerne la sécurité des agents IA, qui nécessite également de repenser les processus traditionnels, a noté Clark.
Des périmètres de sécurité sont dessinés autour de tout, mais cela ne fonctionne pas lorsque les agents doivent pouvoir accéder à plusieurs ressources pour prendre les meilleures décisions, a déclaré Clark.
“Cela change vraiment notre modèle de sécurité, notre niveau de base”, a-t-il déclaré. “Que signifie le moindre privilège dans un monde sans défense et sans pâturages ?”
En fin de compte, un cadre de gouvernance au nom de l’ensemble du secteur doit être repensé et les initiatives doivent s’aligner autour des agents dans un modèle de menace.
Clark a souligné cette disparité : « Si vous examinez certains de vos processus de gouvernance, vous seriez très surpris que l’origine de ces processus soit le fait que quelqu’un tape trois exemplaires sur une machine à écrire électrique IBM et le remette à trois personnes. Ce n’est pas le monde dans lequel nous vivons aujourd’hui. »






