Newsletter
Join the Community
Subscribe to our newsletter for the latest news and updates
下面我会模拟三个“虚拟文件”,分别代表 Resources、Tools 和 Prompts,通过这些“文件”的内容来说明它们在 MCP 中的用法。每个文件都会有实际代码或伪代码,尽量贴近真实开发场景。
下面我会模拟三个“虚拟文件”,分别代表 Resources、Tools 和 Prompts,通过这些“文件”的内容来说明它们在 MCP 中的用法。每个文件都会有实际代码或伪代码,尽量贴近真实开发场景。
文件名:server_logs.txt
描述:假设这是一个服务器日志文件,通过 MCP 的 Resources 暴露给 LLM,让它分析错误。
内容:
[2025-02-22 10:00:01] ERROR: Database connection failed - Timeout
[2025-02-22 10:00:05] INFO: Retry attempt 1
[2025-02-22 10:00:10] ERROR: Database connection failed - Timeout
[2025-02-22 10:00:15] FATAL: System shutdown
MCP 配置(伪代码):
// 在 MCP 服务器上暴露日志文件作为 Resource
const server = new Server({
name: "log-server",
version: "1.0.0"
}, {
capabilities: { resources: {} }
});
// 列出可用资源
server.setRequestHandler("resources/list", async () => {
return {
resources: [{
uri: "file:///logs/server_logs.txt",
name: "Server Logs",
mimeType: "text/plain"
}]
};
});
// 读取资源内容
server.setRequestHandler("resources/read", async (request) => {
if (request.params.uri === "file:///logs/server_logs.txt") {
const logs = await readFile("server_logs.txt");
return {
contents: [{ uri: request.params.uri, mimeType: "text/plain", text: logs }]
};
}
throw new Error("Resource not found");
});
用法解析:
就像上传了一个日志文件,LLM 直接“看到”内容并处理。Resources 的作用就是把数据喂给 LLM,类似“上传原材料”。
文件名:weather_tool.py
描述:这是一个天气查询工具,通过 MCP 的 Tools 功能让 LLM 调用外部 API 获取实时天气。
内容:
# Python MCP 服务器定义工具
from mcp.server import Server
import requests
app = Server("weather-server")
定义天气查询工具
@app.tool("get_weather")
async def get_weather(city: str) -> str:
url = f"http://api.weatherapi.com/v1/current.json?key=YOUR_API_KEY&q={city}"
response = requests.get(url).json()
temp = response["current"]["temp_c"]
condition = response["current"]["condition"]["text"]
return f"{city} 当前温度: {temp}°C,天气: {condition}"
启动服务器
async def main():
async with app.stdio_server():
await app.run()
用法解析:
就像上传了一个“天气查询脚本”,LLM 不只是读,而是直接“执行”它获取结果。Tools 的核心是让 LLM 动手干活,而不是光看数据。
文件名:error_report_template.md
描述:这是一个错误报告模板,通过 MCP 的 Prompts 功能提供给 LLM,生成标准化的报告。
内容:
错误报告
日志文件: {log_file}
错误概要
{summary}
详细分析
{analysis}
修复建议
{suggestions}
MCP 配置(伪代码):
const server = new Server({
name: "report-server",
version: "1.0.0"
}, {
capabilities: { prompts: {} }
});
// 定义 Prompt 模板
server.setRequestHandler("prompts/list", async () => {
return {
prompts: [{
id: "error_report",
name: "Error Report Generator",
template: await readFile("error_report_template.md"),
parameters: ["log_file", "summary", "analysis", "suggestions"]
}]
};
});
用法解析:
就像上传了一个“报告模板”,LLM 按照模板填充内容,生成结构化输出。Prompts 的作用是给 LLM 一个现成的套路,提升效率。
假设我把这三个文件都“上传”到一个 MCP 支持的客户端(比如 Claude Desktop):
最终输出(模拟):
错误报告
日志文件: server_logs.txt
错误概要
数据库连接超时导致系统崩溃
详细分析
日志显示多次超时,可能是网络问题。今日上海天气多云,温度15°C,未见极端情况。
修复建议
检查数据库端口和网络稳定性,排除硬件故障。
通过上面的例子,模拟了“上传文件”的直观体验,展示了 MCP 这仨概念怎么落地。现实中,MCP 需要服务器和客户端支持,但原理就是这么简单直接。