就在這種情況下,Anthropic 在 2024 年底推出了一個叫做模型上下文協議(Model Context Protocol,簡稱 MCP)的新東西。這個協議的野心不小,它想做的事情就像編程語言里的 LSP(Language Server Protocol)一樣,為 AI 和工具之間的互動設定一個標準,讓 AI Agent 能動態地發現、選擇和組織工具,甚至還支持人在操作過程中插手。

image

自從 MCP 推出以來,它的發展速度非???,社區里已經出現了好幾千個 MCP 服務器,能連接到 GitHub、Slack 甚至 Blender 這樣的 3D 設計工具。像 Cursor、Claude Desktop 這樣的應用也開始支持 MCP 了,只要裝上新的服務器,就能擴展它們的能力。

—1—MCP 架構設計剖析

1、MCP 架構設計剖析

MCP 架構設計分為核心組件、傳輸層和通信、MCP 服務器生命周期等構成,下面詳細剖析之。

1.1 核心組件

MCP 架構由三個核心組件組成:MCP 主機(MCP Host)、MCP 客戶端(MCP Client)和 MCP 服務器(MCP Server)。這些組件協同工作,以促進 AI 應用、外部工具和數據源之間的無縫通信,確保操作的安全性和正確管理。

如圖 2 所示,在典型工作流程中,用戶向 MCP 客戶端發送提示詞,客戶端分析意圖,通過 MCP 服務器選擇適當的工具,并調用外部 API 來檢索和處理所需的信息,然后通知用戶結果。

image

1.1.1 MCP 主機

MCP 主機是一個 AI 應用,它在運行 MCP 客戶端的同時,為執行基于 AI 的任務提供環境。它集成交互工具和數據,以實現與外部服務的順暢通信。

比如:

MCP 主機承載 MCP 客戶端,并確保與外部 MCP 服務器通信。

1.1.2 MCP 客戶端

MCP 客戶端在主機環境中充當中介,管理 MCP 主機與一個或多個 MCP 服務器之間的通信。

此外,MCP 客戶端還:

MCP 客戶端通過傳輸層與 MCP 服務器通信,促進主機與外部資源之間的安全、可靠的數據交換和順暢互動。

1.1.3 MCP 服務器

MCP 服務器使 MCP 主機和客戶端能夠訪問外部系統并執行操作,提供三種核心能力:工具、資源和提示詞。

1.2 傳輸層和通信

傳輸層確保安全、雙向通信,允許主機環境與外部系統之間的實時互動和有效數據交換。

這種結構化通信確保了高性能互動,并使 AI 大模型與外部資源保持同步,提高 AI 應用的效果。

1.3 MCP 服務器生命周期

如圖 3 所示,MCP 服務器的生命周期包括三個關鍵階段:創建、運行和更新。

每個階段定義了確保 MCP 服務器安全和高效運行的關鍵活動,使 AI 大模型和外部工具、資源和提示之間能夠無縫互動。

image

1.3.1 MCP 服務器組件

MCP 服務器負責管理外部工具、數據源和工作流程,為 AI 大模型提供執行任務所需的必要資源,確保高效和安全。

它包括幾個關鍵組件:

1.3.2 創建階段

創建階段是 MCP 服務器生命周期的初始階段,在此階段,服務器被注冊、配置并準備運行。

此階段涉及三個關鍵步驟:

1.3.3 運行階段

運行階段是 MCP 服務器積極處理請求、執行工具調用并促進 AI 應用與外部資源之間無縫互動的階段。

1.3.4 更新階段

更新階段確保 MCP 服務器保持安全、最新,并能夠適應不斷變化的需求。

此階段包括三個關鍵任務:

了解 MCP 服務器的生命周期對于識別潛在漏洞和設計有效的安全措施至關重要。

參考來源:https://arxiv.org/pdf/2503.23278

原文轉載自:https://mp.weixin.qq.com/s/lyO_sFrunQFt1zecSN06Lw

上一篇:

基于 MCP 實現推薦業務場景案例架構設計

下一篇:

一文剖析基于 MCP 的 AI 應用技術架構全景視圖:從基礎實施層、云原生層、模型層、應用技術層、應用架構層、到應用層
#你可能也喜歡這些API文章!

我們有何不同?

API服務商零注冊

多API并行試用

數據驅動選型,提升決策效率

查看全部API→
??

熱門場景實測,選對API

#AI文本生成大模型API

對比大模型API的內容創意新穎性、情感共鳴力、商業轉化潛力

25個渠道
一鍵對比試用API 限時免費

#AI深度推理大模型API

對比大模型API的邏輯推理準確性、分析深度、可視化建議合理性

10個渠道
一鍵對比試用API 限時免費