La mémoire des agents reste un problème que les entreprises souhaitent résoudre, car les agents ont tendance à oublier certaines instructions ou conversations lors de leurs déplacements.

anthropologique Je crois que cela a résolu ce problème pour lui SDK de l’agent cloudCréer une solution à deux facteurs qui permet à un agent d’opérer sur différentes fenêtres contextuelles.

“Le principal défi avec les agents qui fonctionnent depuis longtemps est qu’ils doivent travailler dans des sessions séparées, et chaque nouvelle session démarre sans aucun souvenir de ce qui précède”, a écrit Anthropic. Un article de blog. “La fenêtre contextuelle étant limitée et la plupart des projets complexes ne pouvant être réalisés dans une seule fenêtre, les agents ont besoin d’un moyen de combler le fossé entre les sessions de codage.”

Les anthropologues ont proposé une double approche pour leur SDK Agent : un agent initial pour configurer l’environnement et un agent de codage pour progresser progressivement à chaque session et laisser les artefacts pour plus tard.

Problème de mémoire de l’agent

Étant donné que les agents sont construits sur des modèles de base, ils disposent d’une fenêtre contextuelle limitée, bien que toujours croissante. Pour les agents qui fonctionnent depuis longtemps, cela peut créer un gros problème, l’agent peut oublier des instructions et se comporter anormalement lors de l’exécution d’une tâche. Augmenter la mémoire des agents devient essentiel pour des performances cohérentes et sécurisées.

Plusieurs approches ont vu le jour au cours de l’année écoulée, toutes tentant de combler le fossé entre la fenêtre contextuelle et la mémoire de l’agent. Longue chaîneLe SDK LangMem, base de données Et OpenAIExemples d’entreprises proposant des solutions de mémoire en essaim. La recherche sur la mémoire agentique a également récemment explosé, avec la proposition Des frameworks comme Memp Et Paradigme d’apprentissage imbriqué depuis Google Offrir de nouvelles options pour augmenter la mémoire.

La plupart des frameworks en mémoire actuels sont open source et idéalement adaptables pour alimenter des agents à partir de divers grands modèles de langage (LLM). La méthode anthropologique améliore son SDK d’agent habillé.

Comment ça marche

L’anthropologue a découvert que même si le SDK Cloud Agent disposait de capacités de gestion de contexte et “devrait permettre à un agent de continuer à effectuer un travail utile pendant une période arbitrairement longue”, cela n’était pas suffisant. La société a déclaré dans son article de blog, un modèle Dr Comme l’opus 4.5 L’exécution du SDK Claude Agent « peut ne pas réussir à créer une application Web de qualité production si elle ne reçoit qu’une invite de haut niveau, telle que « Créer un clone de claude.ai ».

L’échec s’est manifesté de deux manières, a déclaré Anthropic. Premièrement, l’agent a essayé d’en faire trop, ce qui a entraîné la suppression du contexte par le modèle. L’agent doit alors deviner ce qui s’est passé et ne peut pas donner d’instructions claires à l’agent suivant. Le deuxième échec survient plus tard, une fois que certaines fonctionnalités ont déjà été créées. L’agent constate que des progrès ont été réalisés et déclare la tâche terminée.

Les chercheurs en anthropologie ont décomposé la solution : établir un environnement initial pour jeter les bases des caractéristiques et inciter chaque agent à progresser progressivement vers un objectif, tout en laissant une table rase à la fin.

C’est là qu’intervient la solution en deux parties d’Anthropic’s Agent. L’initialiseur configure l’environnement de l’agent, enregistre ce que les agents ont fait et quels fichiers ont été ajoutés. L’agent de codage indiquera ensuite aux modèles de progresser progressivement et d’ignorer les mises à jour structurelles.

“L’inspiration pour ces pratiques est venue de la connaissance de ce que font chaque jour des ingénieurs logiciels efficaces”, explique Anthropic.

Les chercheurs ont déclaré avoir ajouté des outils de test à l’agent de codage, améliorant ainsi sa capacité à détecter et à corriger les bogues qui n’étaient pas évidents à partir du code seul.

Recherches futures

Anthropic note que son approche est « un ensemble probabiliste de solutions utilisant des agents à long terme ». Cependant, ce n’est que le début de ce qui pourrait devenir un domaine de recherche plus large pour de nombreux acteurs du domaine de l’IA.

L’agence a déclaré que ses expériences sur l’amélioration de la mémoire à long terme des agents n’avaient pas montré si un codage à usage général fonctionnait mieux dans des contextes d’agents ou dans des structures multi-agents.

Sa démo se concentre également sur le développement d’applications Web full-stack, de sorte que d’autres expériences devraient se concentrer sur la généralisation des résultats de différentes tâches.

“Il est probable que tout ou partie de ces leçons puissent être appliquées à des types de tâches agents de longue durée, par exemple la recherche scientifique ou la modélisation financière”, a déclaré Anthropic.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici