Zum Inhalt springen

Model Context Protocol

aus Wikipedia, der freien Enzyklopädie

Das Model Context Protocol (MCP) ist ein offener Standard und Open-Source-Framework, das vom US-Unternehmen Anthropic entwickelt wurde, um die Integration und den Datenaustausch zwischen künstlicher Intelligenz (KI), insbesondere großen Sprachmodellen (LLMs), und externen Tools, Systemen sowie Datenquellen zu standardisieren. MCP wurde offiziell am 25. November 2024 vorgestellt und als Open-Source-Projekt veröffentlicht.[1] Die Möglichkeit, dass LLMs direkt mit der Außenwelt kommunizieren und so ab jetzt Software wie Blender, GitHub oder Slack direkt bedienen kann, wird als revolutionär mit Blick auf die Art, wie wir Software-Systeme nutzen, wahrgenommen.[2]

Hintergrund und Motivation

[Bearbeiten | Quelltext bearbeiten]

Vor der Einführung von MCP mussten Entwickler für jede Kombination aus KI-Modell und externer Datenquelle individuelle Schnittstellen (APIs) erstellen, was zu einem komplexen „M×N-Integrationsproblem“ führte.[3] Diese Fragmentierung erschwerte die Wartung, Skalierung und Sicherheit von KI-Anwendungen erheblich. MCP adressiert dieses Problem, indem es eine universelle, modellunabhängige Schnittstelle bereitstellt, die als „USB für KI-Integrationen“ verstanden werden kann.[4] Ziel ist es, die Interoperabilität zu fördern, Integrationsaufwände zu reduzieren und ein nachhaltiges Ökosystem für KI-Anwendungen zu schaffen.[5][1]

Architektur und Funktionsweise

[Bearbeiten | Quelltext bearbeiten]

MCP basiert auf einem klassischen Client-Server-Modell:[5]

  • Host: Die KI-Anwendung, die externe Funktionen oder Daten benötigt (z. B. Chatbots, IDE-Assistenten).
  • Client: Ein Konnektor innerhalb des Hosts, der Anfragen an einen spezifischen MCP-Server stellt.
  • Server: Ein externes System, das spezialisierte Funktionen, Datenquellen oder Workflows bereitstellt.

Die Kommunikation erfolgt über ein zustandsbehaftetes Session-Protokoll auf Basis von JSON-RPC 2.0, wobei strukturierte Requests und Responses ausgetauscht werden.[5] MCP-Server können lokal (per Standard-Ein- und -Ausgabe) oder remote (über Streamable HTTP oder Server-Sent Events (SSE)) betrieben werden.[6]

Komponenten von MCP-Servern

[Bearbeiten | Quelltext bearbeiten]
  • Tools: Funktionen, die von LLMs aufgerufen werden können, um spezifische Aufgaben auszuführen (z. B. Wetter-API, Datenbankabfragen).
  • Resources: Datenquellen, auf die LLMs lesend zugreifen können, ähnlich wie GET-Endpunkte in REST-APIs.
  • Prompts: Vorgefertigte Workflows oder Templates, die die Interaktion strukturieren und optimieren.[7]

Implementierung und Ökosystem

[Bearbeiten | Quelltext bearbeiten]

MCP ist plattformunabhängig und bietet Software Development Kits (SDKs) für verschiedene Programmiersprachen, darunter Python, TypeScript, Java und C#.[8] Referenzimplementierungen sowie eine wachsende Sammlung von MCP-Servern für gängige Unternehmenssysteme (z. B. Google Drive, Slack, GitHub, Postgres) sind öffentlich verfügbar.[9] Zu den frühen Anwendern zählen Unternehmen wie Block, Apollo, Zed, Replit und Sourcegraph, die MCP nutzen, um KI-Agenten kontextsensitiver und flexibler zu machen.[10]

Sicherheit und Datenschutz

[Bearbeiten | Quelltext bearbeiten]

Das Protokoll legt besonderen Wert auf Sicherheit und Datenschutz. Nutzer müssen explizit zustimmen, bevor Daten freigegeben oder Tools ausgeführt werden. Die Kontrolle über Datenzugriffe und Aktionen verbleibt beim Nutzer, und alle Aktivitäten sollten transparent und nachvollziehbar gestaltet sein.[11]

Verbreitung und Weiterentwicklung

[Bearbeiten | Quelltext bearbeiten]

Nach der Veröffentlichung wurde MCP rasch von weiteren KI-Anbietern wie OpenAI und Google DeepMind übernommen.[12][13] Die offene Spezifikation und das Engagement der Community treiben die Weiterentwicklung und Verbreitung des Protokolls voran.

Am 19. Mai 2025 stellte Microsoft die native Integration von MCP in das Windows-Betriebssystem vor. In Zukunft werden das File-System, die Einstellungen, und Anwendungsaktionen auch von LLMs steuerbar sein.[14]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b Introducing the Model Context Protocol. In: anthropic.com. Anthropic PBC, 25. November 2024, abgerufen am 18. Mai 2025 (englisch).
  2. Vgl. Jan-Keno Janssen: Warum MCP die KI-Nutzung auf den Kopf stellt. In: heise.de vom 17. Mai 2025. Zuletzt abgerufen am 20. Mai 2025.
  3. Conor Kelly: Model Context Protocol (MCP) Explained. In: humanloop.com. 4. April 2025, abgerufen am 18. Mai 2025 (englisch).
  4. Dr. Tehseen Zia: Wie das Model Context Protocol (MCP) die KI-Konnektivität mit Tools und Daten standardisiert. In: Unite.AI. 24. April 2025, abgerufen am 18. Mai 2025.
  5. a b c Stefan Luber: Was ist Model Protocol (MCP)? In: BigData-Insider. 11. April 2025, abgerufen am 18. Mai 2025.
  6. Transport. In: Cloudflare Agents doc. 1. Mai 2025, abgerufen am 18. Mai 2025 (englisch).
  7. Atulpriya Sharma: Model Context Protocol: The USB-C for AI: Simplifying LLM Integration. In: InfraCloud. 24. März 2025, abgerufen am 18. Mai 2025 (englisch).
  8. Model Context Protocol. In: Github. Abgerufen am 18. Mai 2025 (englisch).
  9. Model Context Protocol Servers. In: Github. Model Context Protocol, 18. Mai 2025, abgerufen am 18. Mai 2025 (englisch).
  10. Michel Padrón: Early Adopters of the Model Context Protocol (MCP) & Open-Source Implementations. In: Ardor. 7. Mai 2025, abgerufen am 18. Mai 2025 (englisch).
  11. Specification. In: modelcontextprotocol.io. 26. März 2025, abgerufen am 18. Mai 2025 (englisch).
  12. Kyle Wiggers: OpenAI adopts rival Anthropic's standard for connecting AI models to data. In: TechCrunch. 26. März 2025, abgerufen am 18. Mai 2025 (englisch).
  13. Kyle Wiggers: Google to embrace Anthropic’s standard for connecting AI models to data. In: TechCrunch. 9. April 2025, abgerufen am 18. Mai 2025 (englisch).
  14. Windows Developer Blog, Pavan Davuluri: Advancing Windows for AI development: New platform capabilities and tools introduced at Build 2025. 19. Mai 2025, abgerufen am 20. Mai 2025 (amerikanisches Englisch).