跳转至

MCP

MCP 提供外部上下文接入。

源码

import asyncio
from pathlib import Path

from agently import Agently

Agently.set_settings(
    "OpenAICompatible",
    {
        "base_url": "http://127.0.0.1:11434/v1",
        "model": "qwen2.5:7b",
        "model_type": "chat",
    },
)

agent = Agently.create_agent()


## MCP: use a local MCP server (stdio)
async def mcp_stdio_demo():
    mcp_path = Path(__file__).parents[1] / "mcp" / "cal_mcp_server.py"
    result = await agent.use_mcp(str(mcp_path)).input("333+546=?").async_start()
    print(result)


asyncio.run(mcp_stdio_demo())

讲解

  • 适合文件检索与共享上下文。

注释解读

  • Idea 表示案例思路
  • Flow 表示执行编排路径
  • Expect 表示预期输出或行为

你学会了什么

  • 理解 MCP 的上下文提供能力
  • 知道何时用 MCP 而不是工具

练习任务

  • 运行 MCP 示例并检查上下文输出