Aller au contenu

Model Context Protocol

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 15 mai 2025 à 20:21 et modifiée en dernier par Dirac (discuter | contributions) (Spécification et fonctionnement : en pratique). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.


Le Model Context Protocol (MCP) est un protocole standard ouvert conçu pour connecter des modèles d’intelligence artificielle (IA) (notamment des grands modèles de langage ou agents conversationnels) à des outils, services et sources de données externes[1]. Il a été introduit par la société américaine Anthropic fin 2024, avec l’objectif de fournir une interface universelle – comparée par certains à un « port USB-C » de l’IA – pour intégrer des données contextuelles et des fonctionnalités externes aux modèles, quel que soit le fournisseur. Ce protocole open source vise à éliminer les silos d’information en remplaçant la multitude d’intégrations spécifiques par un mécanisme unifié, permettant aux modèles d’IA d’accéder de manière standardisée à des données en temps réel et d’exécuter des actions au sein de leur environnement logiciel[2]. Depuis son lancement, le MCP a reçu le soutien de plusieurs acteurs majeurs du domaine, notamment OpenAI (concepteur de ChatGPT) et Google DeepMind, qui ont annoncé son adoption au sein de leurs plateformes respectives en 2025[3],[4].

Historique

Anthropic annonce officiellement le Model Context Protocol le 25 novembre 2024, en le publiant sous licence libre avec une spécification ouverte et des outils de développement associés. Ce protocole est présenté comme une réponse à la complexité grandissante de l’intégration des assistants IA dans les systèmes existants : avant MCP, chaque nouvelle source de données ou application tierce nécessitait le développement d’un connecteur sur mesure, aboutissant à une prolifération d’intégrations spécifiques difficile à maintenir. Anthropic souligne que même les modèles les plus sophistiqués restaient isolés des données de l’entreprise ou du web, et que cette fragmentation limitait leur utilité dans des contextes pratiques. Le lancement de MCP s’accompagne donc de la mise à disposition d’outils pour les développeurs (kits de développement SDK en Python et TypeScript notamment) et de connecteurs prêts à l’emploi pour diverses sources (messagerie d’entreprise, bases de code, documents numériques, etc.), afin de faciliter son expérimentation[2],[5].

Dès les premiers mois, plusieurs entreprises technologiques adoptent ou testent le MCP. Fin 2024, des sociétés comme Block (fintech) et Apollo l’intègrent dans leurs systèmes internes, tandis que des plateformes de développement telles que Replit, Zed, Codeium ou Sourcegraph travaillent à le supporter dans leurs environnements, afin d’enrichir leurs assistants de programmation avec un contexte étendu[6],[7],[8].

En mars 2025, la société OpenAI annonce à son tour le support du Model Context Protocol : son PDG Sam Altman déclare l’intégration immédiate de MCP dans le kit de développement d’agents d’OpenAI (Agents SDK), avec un déploiement prévu dans l’application ChatGPT (version bureau) et l’API de réponses d’OpenAI[3]. Quelques semaines plus tard, en avril 2025, Google DeepMind indique également son intention d’embrasser ce standard au sein de ses futurs modèles Gemini, le qualifiant de « bon protocole » et soulignant son essor rapide comme standard ouvert de l’ère des agents IA[4]. En parallèle, la communauté technique commence à analyser le protocole : une étude académique publiée en avril 2025 met en avant plusieurs enjeux de sécurité et de confidentialité encore non résolus (tels que des risques d’injection de code malveillant via les connecteurs MCP), soulignant la nécessité de poursuivre les recherches pour renforcer le protocole à mesure que son utilisation se généralise[9].

Spécification et fonctionnement

Le Model Context Protocol définit un cadre standard pour faire communiquer un agent IA avec des services ou données externes, de manière agnostique au modèle sous-jacent. Techniquement, il s’appuie sur une architecture client-serveur. L’assistant IA (par exemple un agent conversationnel ou une application comme Claude Desktop) agit en tant que client (appelé hôte dans le contexte MCP) qui initie des connexions vers des serveurs MCP externes. Ces serveurs MCP sont des passerelles qui exposent aux clients des ressources (données, fichiers, bases de connaissances), des outils (fonctions applicatives, API externes) ou même des requêtes prédéfinis (modèles de requêtes ou instructions) utilisables par le modèle. Le protocole spécifie le format des messages échangés et assure le lien entre requêtes et réponses, ainsi qu’une communication bidirectionnelle sécurisée entre le client (modèle IA) et le serveur (source de données)[2],[1].

En pratique, MCP fournit une interface unifiée pour connecter des sources de données hétérogènes aux modèles. Par exemple, un même agent IA peut, via MCP, accéder à un système de fichiers, interroger une base de données relationnelle ou appeler une API web, sans que le développeur ait à écrire du code spécifique à chaque intégration[1]. Le protocole permet au modèle de découvrir dynamiquement les outils disponibles et de décider lesquels utiliser en fonction du contexte et de la requête de l’utilisateur. Cette flexibilité ouvre la voie à des enchaînements complexes d’actions (chaîne de pensée) orchestrées par le modèle lui-même pour accomplir une tâche donnée – par exemple chercher une information, traiter des données chiffrées puis enregistrer un résultat – le tout de façon transparente pour l’utilisateur final[10].

Article connexe

Références

  1. a b et c (en) Shivashish Bhardwaj, « Why Anthropic’s Model Context Protocol Is A Big Step In The Evolution Of AI Agents », sur Medium, (consulté le )
  2. a b et c (en) Lynn Greiner, « Anthropic introduces the Model Context Protocol », sur InfoWorld, (consulté le )
  3. a et b (en) Kyle Wiggers, « OpenAI adopts rival Anthropic’s standard for connecting AI models to data », sur TechCrunch, (consulté le )
  4. a et b (en) Kyle Wiggers, « Google to embrace Anthropic’s standard for connecting AI models to data », sur TechCrunch, (consulté le )
  5. (en) Anthropic Team, « Introducing the Model Context Protocol » [« Présentation du Model Context Protocol »], sur Anthropic (blog), (consulté le )
  6. (en) Edwin Lisowski, « MCP Explained: The New Standard Connecting AI to Everything », sur Medium, (consulté le )
  7. (en) Lex Sokolin, « AI: How Stripe, Block, and PayPal are using Model Context Protocol », sur Fintech Blueprint, (consulté le )
  8. (en) « Model Context Protocol (MCP) Explained », sur Medium, (consulté le )
  9. (en) Xinyi Hou, Yanjie Zhao, Shenao Wang et Haoyu Wang, « Model Context Protocol (MCP): Landscape, Security Threats, and Future Research Directions » [« Model Context Protocol (MCP) : panorama, menaces pour la sécurité et axes de recherche future »], sur arXiv, (consulté le )
  10. (en) Ben Dickson, « What is Model Context Protocol (MCP)? » [« Qu’est-ce que le Model Context Protocol (MCP) ? »], sur TechTalks, (consulté le )

Liens externes