/Logfire

PydanticAI MCP 支持 & Logfire MCP 服务器发布

Samuel Colvin avatar
Samuel Colvin
2 分钟

今天我们很高兴宣布模型上下文协议 (MCP) 生态系统的两个强大新增功能:作为 MCP 客户端的 PydanticAI Agents 和 Logfire MCP 服务器。这些工具通过标准化的集成,为 AI 应用程序带来增强的功能。

PydanticAI 现在通过三种关键方式支持模型上下文协议

  1. Agents 作为 MCP 客户端: PydanticAI agents 可以连接到 MCP 服务器以利用其工具和功能
  2. Agents 在 MCP 服务器中: PydanticAI agents 可以用在 MCP 服务器中
  3. mcp-run-python: 作为我们生态系统的一部分,我们正在构建专门的 MCP 服务器,包括 mcp-run-python

PydanticAI 文档中了解更多信息。

我们最新的 MCP 服务器实现是为我们的 Logfire 可观测性平台而设计的。此 MCP 服务器使 AI 应用程序能够直接搜索和分析日志、追踪和指标。这种强大的集成通过为 AI 助手提供关键的可观测性上下文来帮助调试工作流程。 由于 Logfire 允许您使用 SQL 查询数据,因此它特别适合 AI 代理支持。

这是一个视频演示,展示了如何在 Cursor 中使用 Logfire MCP 服务器查询您的 Logfire 数据

这使得可以与 Cursor 的编码代理(或任何其他支持 MCP 的 IDE)一起工作,用于

  • 基于在您的实时应用程序中发现的问题的 AI 驱动的修复
  • 基于实时数据识别代码中的瓶颈
  • 轻松查询和理解您的错误

以及更多!

在 Cursor 中开始使用 Logfire MCP 服务器非常简单。按照我们的设置说明创建或更新您的 .cursor/mcp.json,确保在 Cursor 聊天中选择 agent 模式,然后您的 AI 代理将开始使用 Logfire!

模型上下文协议为 AI 应用程序提供了一个标准化的接口,用于连接外部工具和服务。这种通用接口使 PydanticAI 代理、Cursor 等编码助手以及 Claude Desktop 等桌面应用程序能够与各种服务无缝交互。

MCP 生态系统正在快速增长,许多实现可在 github.com/modelcontextprotocol/servers 上找到。来自 Pydantic 的 Samuel 和 Marcelo 正在帮助维护 MCP 服务器和客户端的官方 Python SDK

  • 通过将 PydanticAI 连接到 Web 搜索 MCP 服务器来创建深度研究代理
  • 通过连接到 Logfire 的 MCP 服务器以获取可观测性上下文,帮助 Cursor(或 Windsurf、Claude Code 等)调试复杂问题
  • 通过 Logfire 的 Run Python MCP server 从任何 MCP 客户端运行沙盒 Python 代码

如果您有任何问题或建议,请告诉我们