Pour discuter avec un LLM, il faut systématiquement lui rappeler toute la conversation à chaque appel. Les grands modèles de langage sont en effet des systèmes “stateless”, sans état : ils n’ont pas de mémoire par défaut.
Les agents IA ajoutent généralement une mémoire court terme, qui permet de stocker une conversation à transmettre au LLM à chaque appel. Les frameworks IA tels que LangChain ou Mastra aident aussi à compresser la conversation quand elle devient trop grande pour la fenêtre de contexte (ou votre portefeuille, les tokens ne sont pas gratuits !).
Formation LangChain et LangGraph éligible CPF chez @lbke : https://www.lbke.fr/formations/developpeur-llm-langgraph-langchain/cpf



