0:00
/
0:00

LangChain : comment gérer une conversation de plusieurs messages

Pour discuter avec un LLM, il faut systématiquement lui rappeler toute la conversation à chaque appel. Les grands modèles de langage sont en effet des systèmes “stateless”, sans état : ils n’ont pas de mémoire par défaut.

Les agents IA ajoutent généralement une mémoire court terme, qui permet de stocker une conversation à transmettre au LLM à chaque appel. Les frameworks IA tels que LangChain ou Mastra aident aussi à compresser la conversation quand elle devient trop grande pour la fenêtre de contexte (ou votre portefeuille, les tokens ne sont pas gratuits !).


Formation LangChain et LangGraph éligible CPF chez @lbke : https://www.lbke.fr/formations/developpeur-llm-langgraph-langchain/cpf

Discussion à propos de cette vidéo

Avatar de User

Tout à fait prêt. Qu'avez-vous pour moi ?