# MCP个人项目(python) **Repository Path**: darkwinoom/mcp-client ## Basic Information - **Project Name**: MCP个人项目(python) - **Description**: mcp-client个人项目,内置简易控制台AI-chat与MCP功能,个人学习用 - **Primary Language**: Python - **License**: MIT - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-05-05 - **Last Updated**: 2025-05-08 ## Categories & Tags **Categories**: Uncategorized **Tags**: Python, openAI, MCP, ollama ## README # MCP Client MCP 服务器 & 客户端个人学习向项目 ## 安装使用 ### 环境构建 首先生成环境配置 ```sh cp .env.example .env ``` 本项目支持在线或本地环境: - 在线环境。如 chatgpt、deepseek 等 - 本地环境。如 ollama、vllm 等 根据实际情况配置 `.env` 文件 ```ini # API访问地址或代理地址 BASE_URL=http://127.0.0.1:11434/v1/ # 使用的模型,如:gpt4-o MODEL=qwen3:8b # 使用的openai key(本地环境可随意填写) OPENAI_API_KEY=ollama # 填写openweather申请的token OPENWEATHER_API_KEY='API_KEY' ``` 上述示例中的地址为本地ollama默认地址,如使用本地模型运行本项目,则需要运行模型。以下是 ollama 运行示例 ```sh ollama run qwen3:8b ``` ### 依赖安装 ```sh # 安装 uv pip install uv # 创建虚拟环境 uv venv # 激活虚拟环境 source .venv/bin/activate # Linux/macos .venv\Scripts\activate # Windows # 安装所需依赖 uv install ``` ## 运行示例 示例文件位于 `/example` 中,以下是简单说明。 ### simple-chat 一个简单的 chat client 示例,可对接线上 openai 或本地大模型 api(如:ollama)。 ```sh uv run ./example/simple-chat/client.py ``` ### mcp-weather 一个简单的的 MPC client + server 示例,通过 OpenWeather 获取天气信息,并在 client 聊天中通过 Function Calling 调用。 ```sh uv run ./example/mcp-weather/client.py ./example/mcp-weather/server.py ``` 未完待续...