Créer un agent IA avec MCP en 2026 : guide pratique complet

MCP (Model Context Protocol) est devenu le standard de fait pour connecter un LLM à des outils externes. Anthropic l’a publié en open-source fin 2024, OpenAI l’a adopté mi-2025, et en 2026 plus de 8000 serveurs MCP existent (GitHub, Slack, Postgres, filesystem, Stripe, etc.). Ce guide construit un agent IA pas à pas : un assistant qui lit votre boîte mail, cherche dans vos documents et publie sur Slack.

MCP en 60 secondes

MCP est un protocole client-serveur standardisé. Le LLM (client) parle à des serveurs MCP qui exposent trois types de ressources : tools (fonctions exécutables), resources (données lisibles), prompts (templates). Avantage : un même serveur MCP fonctionne avec Claude, GPT, Gemini ou Llama via Ollama.

Avant MCP, chaque intégration outil-LLM était spécifique. Avec MCP, vous écrivez un serveur une fois, vous le branchez à tous les modèles compatibles.

Architecture de notre agent

  • Modèle : Claude Sonnet 4.7 (excellent en tool use)
  • Serveur MCP filesystem : lecture des PDFs locaux
  • Serveur MCP Gmail (officiel) : lecture des emails non lus
  • Serveur MCP Slack : envoi de messages
  • Orchestration : Python avec le SDK anthropic + mcp-python

Étape 1 : installer les serveurs MCP

Tous les serveurs officiels Anthropic s’installent via npm ou uv :

  • npm install -g @modelcontextprotocol/server-filesystem
  • npm install -g @modelcontextprotocol/server-gmail
  • uv tool install mcp-server-slack

Configurez ensuite chaque serveur dans un fichier mcp_config.json. Pour Gmail et Slack, vous fournissez les tokens OAuth obtenus respectivement sur Google Cloud Console et api.slack.com.

Étape 2 : connecter l’agent à Claude

Le SDK Python anthropic intègre MCP nativement depuis la version 0.40. Vous chargez la config, vous lancez les serveurs en sous-processus, et l’API expose automatiquement les tools au modèle.

Boucle agent classique : (1) envoyer message + outils disponibles, (2) si le modèle renvoie un tool_use, exécuter l’outil via le serveur MCP correspondant, (3) renvoyer le résultat dans la conversation, (4) recommencer jusqu’à stop_reason=’end_turn’.

Étape 3 : prompt système efficace

Le prompt système conditionne 80% de la qualité de l’agent. Quatre règles : décrire le rôle précisément, lister les outils et quand les utiliser, donner un exemple de workflow attendu, fixer les garde-fous (pas d’envoi sans confirmation, etc.).

Étape 4 : tester et déboguer

  • Activez les logs MCP côté serveur (variable MCP_DEBUG=1)
  • Loggez chaque tool_use et tool_result côté client
  • Utilisez le MCP Inspector officiel (npx @modelcontextprotocol/inspector) pour tester un serveur isolément
  • Limitez le nombre d’outils exposés simultanément à 15-20 (au-delà, le modèle hallucine)

Étape 5 : déployer en production

Pour passer en prod, trois options : (1) lancer l’agent comme worker en arrière-plan (cron, systemd), (2) l’exposer via un serveur FastAPI et un webhook Slack, (3) utiliser un orchestrateur comme Temporal ou Inngest pour gérer les longues tâches.

En production, surveillez le coût par exécution. Un agent qui boucle 30 fois sur Sonnet 4.7 coûte environ 0,40 €. Mettez un budget max par run et un timeout.

Cas d’usage concrets en 2026

  • Veille : un agent qui lit RSS, résume et publie chaque matin
  • Support : un agent qui lit Zendesk, cherche dans Notion et propose une réponse
  • Sales : un agent qui qualifie les leads HubSpot et planifie des relances
  • Dev : un agent GitHub qui ouvre des PR de refactor sur dette technique identifiée

❓ Questions fréquentes

MCP fonctionne-t-il avec GPT-4 ou Gemini ?

Oui depuis mi-2025. OpenAI a intégré MCP dans Responses API, Google dans Gemini API. Le code agent reste 95% identique, seuls les SDK changent.

Faut-il coder son propre serveur MCP ?

Non si un serveur officiel ou communautaire couvre votre besoin (annuaire sur mcp.so). Sinon, écrire un serveur MCP en Python prend 50 lignes avec le SDK officiel.

Quelle différence avec LangChain ?

LangChain est un framework d’orchestration côté code. MCP est un protocole d’interopérabilité côté outils. Ils sont complémentaires : LangChain peut consommer des serveurs MCP.

Combien coûte un agent MCP ?

Coût LLM uniquement (les serveurs MCP sont gratuits si auto-hébergés). Comptez 0,05 à 0,80 € par exécution selon complexité, sur Claude Sonnet 4.7 ou GPT-5.

Conclusion

MCP simplifie radicalement la construction d’agents IA. Démarrez avec deux serveurs officiels, testez sur un cas concret, puis élargissez. Le ROI d’un agent bien ciblé tombe sous 3 mois pour la plupart des PME.

Laisser un commentaire