Chaque fournisseur d’IA, comme OpenAI, Mistral ou Anthropic, propose généralement une API qui permet aux développeurs IA d’intégrer des appels LLM à un code informatique, par exemple pour implémenter des chatbots et agents IA en tous genres.
Cependant, que se passe-t-il lorsque l’on souhaite changer de fournisseur ? Il faudrait potentiellement réécrire tout le code !
C’est ici qu’intervient l’écosystème LangChain et notamment la librairie langchain-core. Elle fournit une interface standardisée pour se connecter à n’importe quel fournisseur.
La fonction "invoke" permet d'appeler n'importe quelle API LLM connectée à LangChain. Plus besoin d'apprendre les spécificités de chaque SDK (OpenAI, Claude, Gemini etc.).
Cette fonction s’appuie sur les “Runnable”, une abstraction au coeur du fonctionnement de LangChain mais qui devient moins visible depuis la v1 de LangChain, qui met plutôt l’accent sur l’utilisation de la boucle agentique.
Attention à ne pas confondre framework LLM et gateway : OpenRouter et LiteLLM vous permettent aussi de vous connecter à plusieurs fournisseurs LLM, mais sont positionnés côté “backend” : LangChain reste nécessaire pour intégrer un LLM à votre code.



