今天我们很高兴宣布模型上下文协议 (MCP) 生态系统的两个强大新增功能:作为 MCP 客户端的 PydanticAI Agents 和 Logfire MCP 服务器。这些工具通过标准化的集成,为 AI 应用程序带来增强的功能。
PydanticAI MCP 支持
PydanticAI 现在通过三种关键方式支持模型上下文协议
- Agents 作为 MCP 客户端: PydanticAI agents 可以连接到 MCP 服务器以利用其工具和功能
- Agents 在 MCP 服务器中: PydanticAI agents 可以用在 MCP 服务器中
- mcp-run-python: 作为我们生态系统的一部分,我们正在构建专门的 MCP 服务器,包括 mcp-run-python
在 PydanticAI 文档中了解更多信息。
Logfire MCP 服务器
我们最新的 MCP 服务器实现是为我们的 Logfire 可观测性平台而设计的。此 MCP 服务器使 AI 应用程序能够直接搜索和分析日志、追踪和指标。这种强大的集成通过为 AI 助手提供关键的可观测性上下文来帮助调试工作流程。 由于 Logfire 允许您使用 SQL 查询数据,因此它特别适合 AI 代理支持。
在 Cursor 中设置 Logfire MCP 服务器
这是一个视频演示,展示了如何在 Cursor 中使用 Logfire MCP 服务器查询您的 Logfire 数据
这使得可以与 Cursor 的编码代理(或任何其他支持 MCP 的 IDE)一起工作,用于
- 基于在您的实时应用程序中发现的问题的 AI 驱动的修复
- 基于实时数据识别代码中的瓶颈
- 轻松查询和理解您的错误
以及更多!
在 Cursor 中开始使用 Logfire MCP 服务器非常简单。按照我们的设置说明创建或更新您的 .cursor/mcp.json
,确保在 Cursor 聊天中选择 agent
模式,然后您的 AI 代理将开始使用 Logfire!
什么是 MCP?
模型上下文协议为 AI 应用程序提供了一个标准化的接口,用于连接外部工具和服务。这种通用接口使 PydanticAI 代理、Cursor 等编码助手以及 Claude Desktop 等桌面应用程序能够与各种服务无缝交互。
MCP 生态系统正在快速增长,许多实现可在 github.com/modelcontextprotocol/servers 上找到。来自 Pydantic 的 Samuel 和 Marcelo 正在帮助维护 MCP 服务器和客户端的官方 Python SDK。
用例
- 通过将 PydanticAI 连接到 Web 搜索 MCP 服务器来创建深度研究代理
- 通过连接到 Logfire 的 MCP 服务器以获取可观测性上下文,帮助 Cursor(或 Windsurf、Claude Code 等)调试复杂问题
- 通过 Logfire 的 Run Python MCP server 从任何 MCP 客户端运行沙盒 Python 代码
如果您有任何问题或建议,请告诉我们。