Skip to content

MCPの概要とNxM問題

Model Context Protocol(MCP)は、AIモデルと外部のデータやツールを繋ぐためのオープンな標準規格。2024年11月25日にAnthropic社より発表され、現在はOpenAI・Google DeepMind・Microsoftなどの主要ベンダーにも採用されている。「AIアプリケーションのUSB-C」とも称される。

MCPが解決する問題

LLMの構造的制約

大規模言語モデル(LLM)は優れた推論能力を備える一方で、以下の本質的な制約に直面している。

  1. 静的な知識(情報のサイロ化):トレーニングデータに依存するため、外部システムから隔離されたLLMはリアルタイムのデータ更新や実世界のアクション実行が不可能
  2. コンテキストウィンドウの限界:内部メモリのスケーリングは計算コストが極めて高い

NxM問題(断片化危機)

N種類のLLMをM種類のエンタープライズツールに個別接続しようとすると、接続の組み合わせが爆発的に増加する問題。

MCPなし(NxM個の個別実装が必要):
  Claude   ─ GitHub実装
  Claude   ─ Slack実装
  Claude   ─ DB実装
  GPT-4    ─ GitHub実装  ← 同じ接続を再実装
  GPT-4    ─ Slack実装
  ...

MCPあり(N+M個の実装のみ):
  Claude   ─┐
  GPT-4    ─┤ MCP ─┬─ GitHub MCPサーバー
  Gemini   ─┘       ├─ Slack MCPサーバー
                     └─ DB MCPサーバー

MCPは「一つの接続方式で多様なシステムを利用可能にする」ことで、深刻なテクニカルデプロイメントの遅延と開発・保守コストの増大を解消する。

MCPの位置づけ

MCPはAIエージェントが外部のデータソースや実行環境へ安全かつ抽象化された手法でアクセスするためのクライアント・サーバー型アーキテクチャ。

  • RAG:パッシブな知識の接地(グラウンディング)を担う
  • MCP:アクティブなシステム操作と外部接続を担う

→ 詳細はMCPとRAGの比較とハイブリッドアーキテクチャ

関連

引用元: NotebookLM