• 从零开始构建 Ollama + MCP 服务器

从零开始构建 Ollama + MCP 服务器

2025-04-26 19:51:05 2 阅读

Model Context Protocol(模型上下文协议)在过去几个月里已经霸占了大家的视野,出现了许多酷炫的集成示例。我坚信它会成为一种标准,因为它正在定义工具与代理或软件与 AI 模型之间如何集成的新方式。

我决定尝试将 Ollama 中的一个小型 LLM 连接到一个 MCP 服务器上,感受一下这个新标准的魅力。今天,我想向大家展示一种将 Ollama 与 MCP 服务器集成的可能实现方式。

魔法配方

集成的主要步骤如下:

  1. 创建一个测试用的 MCP 服务器。
  2. 创建一个客户端文件,用于发送请求并启动服务器。
  3. 将服务器的工具获取到客户端。
  4. 将工具转换为 Pydantic 模型。
  5. 通过响应的 format 字段将工具(作为 Pydantic 模型)传递给 Ollama。
  6. 通过 Ollama 发送对话并接收结构化输出。
  7. 如果响应中包含工具,则向服务器发起请求。

安装依赖

要运行这个项目,需要安装所需的包。fastmcp 库在使用 uv 运行代码时表现最佳。它像 Poetry 和 pip 一样,下载方便,使用简单。

使用以下命令将所需的库添加到项目中:

uv add fastmcp ollama

这将安装 MCP 服务器和 Ollama 聊天库,你可以在此基础上构建客户端和服务器逻辑。

文件结构

设置完成后,你的文件夹结构应该如下所示:

your folder
├── server.py
└── client.py

server.py 文件包含 MCP 服务器和你想要暴露的工具。client.py 文件在后台进程启动服务器,获取可用工具,并与 Ollama 连接。

示例 MCP 服务器

让我们从创建一个简单的 MCP 服务器开始,使用 fastmcp 库。服务器暴露了一个名为 magicoutput 的工具。该函数接受两个字符串输入,并返回一个固定的字符串作为输出。

使用 @mcp.tool() 装饰器将函数注册为 MCP 服务器中的可用工具。服务器启动后,任何客户端都可以获取并调用这个工具。

通过在主块中调用 mcp.run() 启动服务器。

# server.py
from fastmcp import FastMCP
# 创建一个 MCP 服务器
mcp = FastMCP("TestServer")
# 我的工具:
@mcp.tool()
def magicoutput(obj1: str, obj2: str) -> int:
    """使用这个函数来获取神奇的输出"""
    return "WomboWombat"
if __name__ == "__main__":
    mcp.run()

获取服务器工具

为了连接到 MCP 服务器并列出可用工具,我们使用 ClientSessionStdioServerParametersstdio_client,它们都来自 mcp 库。

我们定义了一个名为 OllamaMCP 的类,用于处理服务器连接和工具获取。在类中,_async_run 方法启动一个异步会话,初始化它,并从服务器获取工具列表。

我们使用 threading.Event() 来跟踪会话何时准备就绪,并将工具列表存储在 self.tools 中。

在脚本的末尾,我们定义了服务器参数,并在后台线程中运行客户端。这将启动连接并打印服务器返回的工具元数据。

# client.py
import asyncio
import threading
from pathlib import Path
from mcp import ClientSession, StdioServerParameters
from mcp.client.stdio import stdio_client
from typing import Any

class OllamaMCP:
    """
    Ollama 和 FastMCP 之间的简单集成
    """
    def __init__(self, server_params: StdioServerParameters):
        self.server_params = server_params
        self.initialized = threading.Event()
        self.tools: list[Any] = []
    def _run_background(self):
        asyncio.run(self._async_run())
    async def _async_run(self):
        try:
            async with stdio_client(self.server_params) as (read, write):
                async with ClientSession(read, write) as session:
                    await session.initialize()
                    self.session = session
                    tools_result = await session.list_tools()
                    self.tools = tools_result.tools
                    print(tools_result)
        except Exception as e:
            print(f"初始化 MCP 服务器时出错 {str(e)}")
if __name__ == "__main__":
    server_parameters = StdioServerParameters(
        command="uv",
        args=["run", "python", "server.py"],
        cwd=str(Path.cwd())
    )
    ollamamcp = OllamaMCP(server_params=server_parameters)
    ollamamcp._run_background()

运行上述代码后,你会从服务器收到以下响应,其中可以看到服务器上可用的工具列表。

[04/14/25 22:29:08] INFO     正在启动服务器 "TestServer"...    server.py:171
                    INFO     正在处理请求类型         server.py:534
                             ListToolsRequest
meta=None nextCursor=None tools=[Tool(name='magicoutput', description='使用这个函数来获取神奇的输出', inputSchema={'properties': {'obj1': {'title': 'Obj1', 'type': 'string'}, 'obj2': {'title': 'Obj2', 'type': 'string'}}, 'required': ['obj1', 'obj2'], 'title': 'magicoutputArguments', 'type': 'object'})]

将工具转换为 Pydantic 模型

现在我们已经从服务器获取了工具列表,下一步是将它们转换为 Pydantic 模型。我们使用 Pydantic 的 create_model 动态定义一个新的响应模式,基于服务器的工具定义。还有一个辅助函数,用于将 JSON 类型映射为有效的 Python 类型。

这可以帮助我们动态定义模型,以便 LLM 精确地知道在返回工具参数时应使用什么结构。

# client.py
import asyncio
import threading
from pathlib import Path
from mcp import ClientSession, StdioServerParameters
from mcp.client.stdio import stdio_client
from typing import Any, Union, Optional
from pydantic import BaseModel, create_model, Field

class OllamaMCP:
    """Ollama 和 FastMCP 之间的简单集成"""

    def __init__(self, server_params: StdioServerParameters):
        self.server_params = server_params
        self.initialized = threading.Event()
        self.tools: list[Any] = []

    def _run_background(self):
        asyncio.run(self._async_run())

    async def _async_run(self):
        try:
            async with stdio_client(self.server_params) as (read, write):
                async with ClientSession(read, write) as session:
                    await session.initialize()
                    self.session = session
                    tools_result = await session.list_tools()
                    self.tools = tools_result.tools
        except Exception as e:
            print(f"初始化 MCP 服务器时出错 {str(e)}")


    def create_response_model(self):
        dynamic_classes = {}
        for tool in self.tools:
            class_name = tool.name.capitalize()
            properties = {}
            for prop_name, prop_info in tool.inputSchema.get("properties", {}).items():
                json_type = prop_info.get("type", "string")
                properties[prop_name] = self.convert_json_type_to_python_type(json_type)

            model = create_model(
                class_name,
                __base__=BaseModel,
                __doc__=tool.description,
                **properties,
            )
            dynamic_classes[class_name] = model

        if dynamic_classes:
            all_tools_type = Union[tuple(dynamic_classes.values())]
            Response = create_model(
                "Response",
                __base__=BaseModel,
                __doc__="LLm 响应类",
                response=(str, Field(..., description= "确认将调用该函数的消息")),
                tool=(all_tools_type, Field(
                    ...,
                    description="用于运行并获取神奇输出的工具"
                )),
            )
        else:
            Response = create_model(
                "Response",
                __base__=BaseModel,
                __doc__="LLm 响应类",
                response=(str, ...),
                tool=(Optional[Any], Field(None, description="如果不返回 None,则使用此工具")),
            )

        self.response_model = Response
        print(Response.model_fields)

    @staticmethod
    def convert_json_type_to_python_type(json_type: str):
        """将 JSON 类型简单映射为 Python(Pydantic)类型"""
        if json_type == "integer":
            return (int, ...)
        if json_type == "number":
            return (float, ...)
        if json_type == "string":
            return (str, ...)
        if json_type == "boolean":
            return (bool, ...)
        return (str, ...)


# 从零开始构建 Ollama + MCP 服务器

Model Context Protocol(模型上下文协议)在过去几个月里已经霸占了大家的视野,出现了许多酷炫的集成示例。我坚信它会成为一种标准,因为它正在定义工具与代理或软件与 AI 模型之间如何集成的新方式。

既然我最喜欢写的是小型语言模型(LLMs),我决定尝试将 Ollama 中的一个小型 LLM 连接到一个 MCP 服务器上,感受一下这个新标准的魅力。今天,我想向大家展示一种将 Ollama 与 MCP 服务器集成的可能实现方式。

## 魔法配方

集成的主要步骤如下:

1. 创建一个测试用的 MCP 服务器。
2. 创建一个客户端文件,用于发送请求并启动服务器。
3. 将服务器的工具获取到客户端。
4. 将工具转换为 Pydantic 模型。
5. 通过响应的 `format` 字段将工具(作为 Pydantic 模型)传递给 Ollama。
6. 通过 Ollama 发送对话并接收结构化输出。
7. 如果响应中包含工具,则向服务器发起请求。

## 安装依赖

要运行这个项目,需要安装所需的包。`fastmcp` 库在使用 `uv` 运行代码时表现最佳。它像 Poetry 和 pip 一样,下载方便,使用简单。

使用以下命令将所需的库添加到项目中:

```csharp
uv add fastmcp ollama

这将安装 MCP 服务器和 Ollama 聊天库,你可以在此基础上构建客户端和服务器逻辑。

文件结构

设置完成后,你的文件夹结构应该如下所示:

your folder
├── server.py
└── client.py

server.py 文件包含 MCP 服务器和你想要暴露的工具。client.py 文件在后台进程启动服务器,获取可用工具,并与 Ollama 连接。

示例 MCP 服务器

让我们从创建一个简单的 MCP 服务器开始,使用 fastmcp 库。服务器暴露了一个名为 magicoutput 的工具。该函数接受两个字符串输入,并返回一个固定的字符串作为输出。

使用 @mcp.tool() 装饰器将函数注册为 MCP 服务器中的可用工具。服务器启动后,任何客户端都可以获取并调用这个工具。

通过在主块中调用 mcp.run() 启动服务器。

# server.py
from fastmcp import FastMCP
# 创建一个 MCP 服务器
mcp = FastMCP("TestServer")
# 我的工具:
@mcp.tool()
def magicoutput(obj1: str, obj2: str) -> int:
    """使用这个函数来获取神奇的输出"""
    return "WomboWombat"
if __name__ == "__main__":
    mcp.run()

获取服务器工具

为了连接到 MCP 服务器并列出可用工具,我们使用 ClientSessionStdioServerParametersstdio_client,它们都来自 mcp 库。

我们定义了一个名为 OllamaMCP 的类,用于处理服务器连接和工具获取。在类中,_async_run 方法启动一个异步会话,初始化它,并从服务器获取工具列表。

我们使用 threading.Event() 来跟踪会话何时准备就绪,并将工具列表存储在 self.tools 中。

在脚本的末尾,我们定义了服务器参数,并在后台线程中运行客户端。这将启动连接并打印服务器返回的工具元数据。

# client.py
import asyncio
import threading
from pathlib import Path
from mcp import ClientSession, StdioServerParameters
from mcp.client.stdio import stdio_client
from typing import Any

class OllamaMCP:
    """
    Ollama 和 FastMCP 之间的简单集成
    """
    def __init__(self, server_params: StdioServerParameters):
        self.server_params = server_params
        self.initialized = threading.Event()
        self.tools: list[Any] = []
    def _run_background(self):
        asyncio.run(self._async_run())
    async def _async_run(self):
        try:
            async with stdio_client(self.server_params) as (read, write):
                async with ClientSession(read, write) as session:
                    await session.initialize()
                    self.session = session
                    tools_result = await session.list_tools()
                    self.tools = tools_result.tools
                    print(tools_result)
        except Exception as e:
            print(f"初始化 MCP 服务器时出错 {str(e)}")
if __name__ == "__main__":
    server_parameters = StdioServerParameters(
        command="uv",
        args=["run", "python", "server.py"],
        cwd=str(Path.cwd())
    )
    ollamamcp = OllamaMCP(server_params=server_parameters)
    ollamamcp._run_background()

运行上述代码后,你会从服务器收到以下响应,其中可以看到服务器上可用的工具列表。

[04/14/25 22:29:08] INFO     正在启动服务器 "TestServer"...    server.py:171
                    INFO     正在处理请求类型         server.py:534
                             ListToolsRequest
meta=None nextCursor=None tools=[Tool(name='magicoutput', description='使用这个函数来获取神奇的输出', inputSchema={'properties': {'obj1': {'title': 'Obj1', 'type': 'string'}, 'obj2': {'title': 'Obj2', 'type': 'string'}}, 'required': ['obj1', 'obj2'], 'title': 'magicoutputArguments', 'type': 'object'})]

将工具转换为 Pydantic 模型

现在我们已经从服务器获取了工具列表,下一步是将它们转换为 Pydantic 模型。我们使用 Pydantic 的 create_model 动态定义一个新的响应模式,基于服务器的工具定义。还有一个辅助函数,用于将 JSON 类型映射为有效的 Python 类型。

这可以帮助我们动态定义模型,以便 LLM 精确地知道在返回工具参数时应使用什么结构。

# client.py
import asyncio
import threading
from pathlib import Path
from mcp import ClientSession, StdioServerParameters
from mcp.client.stdio import stdio_client
from typing import Any, Union, Optional
from pydantic import BaseModel, create_model, Field

class OllamaMCP:
    """Ollama 和 FastMCP 之间的简单集成"""

    def __init__(self, server_params: StdioServerParameters):
        self.server_params = server_params
        self.initialized = threading.Event()
        self.tools: list[Any] = []

    def _run_background(self):
        asyncio.run(self._async_run())

    async def _async_run(self):
        try:
            async with stdio_client(self.server_params) as (read, write):
                async with ClientSession(read, write) as session:
                    await session.initialize()
                    self.session = session
                    tools_result = await session.list_tools()
                    self.tools = tools_result.tools
        except Exception as e:
            print(f"初始化 MCP 服务器时出错 {str(e)}")


    def create_response_model(self):
        dynamic_classes = {}
        for tool in self.tools:
            class_name = tool.name.capitalize()
            properties = {}
            for prop_name, prop_info in tool.inputSchema.get("properties", {}).items():
                json_type = prop_info.get("type", "string")
                properties[prop_name] = self.convert_json_type_to_python_type(json_type)

            model = create_model(
                class_name,
                __base__=BaseModel,
                __doc__=tool.description,
                **properties,
            )
            dynamic_classes[class_name] = model

        if dynamic_classes:
            all_tools_type = Union[tuple(dynamic_classes.values())]
            Response = create_model(
                "Response",
                __base__=BaseModel,
                __doc__="LLm 响应类",
                response=(str, Field(..., description= "确认将调用该函数的消息")),
                tool=(all_tools_type, Field(
                    ...,
                    description="用于运行并获取神奇输出的工具"
                )),
            )
        else:
            Response = create_model(
                "Response",
                __base__=BaseModel,
                __doc__="LLm 响应类",
                response=(str, ...),
                tool=(Optional[Any], Field(None, description="如果不返回 None,则使用此工具")),
            )

        self.response_model = Response
        print(Response.model_fields)

    @staticmethod
    def convert_json_type_to_python_type(json_type: str):
        """将 JSON 类型简单映射为 Python(Pydantic)类型"""
        if json_type == "integer":
            return (int, ...)
        if json_type == "number":
            return (float, ...)
        if json_type == "string":
            return (str, ...)
        if json_type == "boolean":
            return (bool, ...)
        return (str, ...)

运行代码后,print(Response.model_fields) 的输出将显示我们刚刚构建的响应模型的完整结构。该模型包括两部分:一部分是助手发送回用户的消息,另一部分是可选字段,用于保存工具参数。

如果模型填写了 tool 字段,我们将使用它来调用服务器。否则,我们只使用纯响应字符串。

uv run python -m convert_tools
[04/15/25 10:15:32] INFO     正在启动服务器 "TestServer"...    server.py:171
                    INFO     正在处理请求类型         server.py:534
                             ListToolsRequest
{'response': FieldInfo(annotation=str, required=True, description='确认将调用该函数的消息'), 'tool': FieldInfo(annotation=Magicoutput, required=True, description='用于运行并获取神奇输出的工具')}

使用后台线程和队列调用工具

现在工具已经作为 Pydantic 模型可用,我们可以继续启用工具调用。为此,我们使用一个后台线程并设置两个队列。一个用于向服务器发送请求,另一个用于接收响应。

call_tool 方法将请求放入队列中,后台线程监听该请求。一旦使用 MCP 会话调用工具,结果将放入响应队列中。

import asyncio
import threading
import queue
from pathlib import Path
from mcp import ClientSession, StdioServerParameters
from mcp.client.stdio import stdio_client
from typing import Any, Union, Optional
from pydantic import BaseModel, create_model, Field

class OllamaMCP:
    """Ollama 和 FastMCP 之间的简单集成"""
    def __init__(self, server_params: StdioServerParameters):
        self.server_params = server_params
        self.initialized = threading.Event()
        self.tools: list[Any] = []
        self.request_queue = queue.Queue()
        self.response_queue = queue.Queue()
        # 启动后台线程以异步处理请求。
        self.thread = threading.Thread(target=self._run_background, daemon=True)
        self.thread.start()
    def _run_background(self):
        asyncio.run(self._async_run())
    async def _async_run(self):
        try:
            async with stdio_client(self.server_params) as (read, write):
                async with ClientSession(read, write) as session:
                    await session.initialize()
                    self.session = session
                    tools_result = await session.list_tools()
                    self.tools = tools_result.tools
                    self.initialized.set()
                    while True:
                        try:
                            tool_name, arguments = self.request_queue.get(block=False)
                        except queue.Empty:
                            await asyncio.sleep(0.01)
                            continue
                        if tool_name is None:
                            print("收到关闭信号。")
                            break
                        try:
                            result = await session.call_tool(tool_name, arguments)
                            self.response_queue.put(result)
                        except Exception as e:
                            self.response_queue.put(f"错误: {str(e)}")
        except Exception as e:
            print("MCP 会话初始化错误:", str(e))
            self.initialized.set()  # 即使初始化失败,也要解除等待线程的阻塞。
            self.response_queue.put(f"MCP 初始化错误: {str(e)}")

    def call_tool(self, tool_name: str, arguments: dict[str, Any]) -> Any:
        """
        发送工具调用请求并等待结果。
        """
        if not self.initialized.wait(timeout=30):
            raise TimeoutError("MCP 会话初始化超时。")
        self.request_queue.put((tool_name, arguments))
        result = self.response_queue.get()
        return result

    def shutdown(self):
        """
        清理并关闭持久会话。
        """
        self.request_queue.put((None, None))
        self.thread.join()
        print("持久 MCP 会话已关闭。")

    def create_response_model(self):
        dynamic_classes = {}
        for tool in self.tools:
            class_name = tool.name.capitalize()
            properties = {}
            for prop_name, prop_info in tool.inputSchema.get("properties", {}).items():
                json_type = prop_info.get("type", "string")
                properties[prop_name] = self.convert_json_type_to_python_type(json_type)
            model = create_model(
                class_name,
                __base__=BaseModel,
                __doc__=tool.description,
                **properties,
            )
            dynamic_classes[class_name] = model
        if dynamic_classes:
            all_tools_type = Union[tuple(dynamic_classes.values())]
            Response = create_model(
                "Response",
                __base__=BaseModel,
                response=(str, ...),
                tool=(Optional[all_tools_type], Field(None, description="如果不返回 None,则使用此工具")),
            )
        else:
            Response = create_model(
                "Response",
                __base__=BaseModel,
                response=(str, ...),
                tool=(Optional[Any], Field(None, description="如果不返回 None,则使用此工具")),
            )
        self.response_model = Response
    @staticmethod
    def convert_json_type_to_python_type(json_type: str):
        """将 JSON 类型简单映射为 Python(Pydantic)类型"""
        if json_type == "integer":
            return (int, ...)
        if json_type == "number":
            return (float, ...)
        if json_type == "string":
            return (str, ...)
        if json_type == "boolean":
            return (bool, ...)
        return (str, ...)
if __name__ == "__main__":
    server_parameters = StdioServerParameters(
        command="uv",
        args=["run", "python", "server.py"],
        cwd=str(Path.cwd())
    )
    ollamamcp = OllamaMCP(server_params=server_parameters)
    if ollamamcp.initialized.wait(timeout=30):
        print("已准备好调用工具。")
        result = ollamamcp.call_tool(
            tool_name="magicoutput",
            arguments={"obj1": "dog", "obj2": "cat"}
        )
        print(result)
    else:
        print("错误:初始化超时。")

请注意,此时我们是手动传递函数名和参数,使用 call_tool 方法。在下一节中,我们将根据 Ollama 返回的结构化输出触发此调用。

运行此代码后,我们可以确认一切按预期工作。工具被服务器正确识别、执行,并返回结果。

[04/15/25 11:37:47] INFO     正在启动服务器 "TestServer"...    server.py:171
                    INFO     正在处理请求类型         server.py:534
                             ListToolsRequest
已准备好调用工具。
                    INFO     正在处理请求类型         server.py:534
                             CallToolRequest
meta=None content=[TextContent(type='text', text='WomboWombat', annotations=None)] isError=False

Ollama + MCP

随着队列和 call_tool 函数准备就绪,现在是时候集成 Ollama 了。我们将响应类传递给 Ollama 的 format 字段,告诉我们的 LLM(这里使用 Gemma)在生成输出时遵循该模式。

我们还定义了一个 ollama_chat 方法,用于发送对话,验证模型的响应是否符合模式,并检查是否包含工具。如果是,则提取函数名和参数,然后使用持久的 MCP 会话在后台线程中调用它。

main 函数中,我们设置服务器连接,启动后台循环,并等待一切准备就绪。然后我们准备一个系统提示和用户消息,将它们发送到 Ollama,并等待结构化输出。

最后,我们打印服务器的结果并关闭会话。

import asyncio
import threading
import queue

from pathlib import Path
from typing import Any, Optional, Union
from pydantic import BaseModel, Field, create_model
from mcp import ClientSession, StdioServerParameters
from mcp.client.stdio import stdio_client
from ollama import chat

class OllamaMCP:

    def __init__(self, server_params: StdioServerParameters):
        self.server_params = server_params
        self.request_queue = queue.Queue()
        self.response_queue = queue.Queue()
        self.initialized = threading.Event()
        self.tools: list[Any] = []
        self.thread = threading.Thread(target=self._run_background, daemon=True)
        self.thread.start()

    def _run_background(self):
        asyncio.run(self._async_run())

    async def _async_run(self):
        try:
            async with stdio_client(self.server_params) as (read, write):
                async with ClientSession(read, write) as session:
                    await session.initialize()
                    self.session = session
                    tools_result = await session.list_tools()
                    self.tools = tools_result.tools
                    self.initialized.set()

                    while True:
                        try:
                            tool_name, arguments = self.request_queue.get(block=False)
                        except queue.Empty:
                            await asyncio.sleep(0.01)
                            continue

                        if tool_name is None:
                            break
                        try:
                            result = await session.call_tool(tool_name, arguments)
                            self.response_queue.put(result)
                        except Exception as e:
                            self.response_queue.put(f"错误: {str(e)}")
        except Exception as e:
            print("MCP 会话初始化错误:", str(e))
            self.initialized.set()  # 即使初始化失败,也要解除等待线程的阻塞。
            self.response_queue.put(f"MCP 初始化错误: {str(e)}")

    def call_tool(self, tool_name: str, arguments: dict[str, Any]) -> Any:
        """
        发送工具调用请求并等待结果。
        """
        if not self.initialized.wait(timeout=30):
            raise TimeoutError("MCP 会话初始化超时。")
        self.request_queue.put((tool_name, arguments))
        result = self.response_queue.get()
        return result

    def shutdown(self):
        """
        清理并关闭持久会话。
        """
        self.request_queue.put((None, None))
        self.thread.join()
        print("持久 MCP 会话已关闭。")


    @staticmethod
    def convert_json_type_to_python_type(json_type: str):
        """将 JSON 类型简单映射为 Python(Pydantic)类型"""
        if json_type == "integer":
            return (int, ...)
        if json_type == "number":
            return (float, ...)
        if json_type == "string":
            return (str, ...)
        if json_type == "boolean":
            return (bool, ...)
        return (str, ...)

    def create_response_model(self):
        """
        根据获取的工具动态创建 Pydantic 响应模型。
        """
        dynamic_classes = {}
        for tool in self.tools:
            class_name = tool.name.capitalize()
            properties: dict[str, Any] = {}
            for prop_name, prop_info in tool.inputSchema.get("properties", {}).items():
                json_type = prop_info.get("type", "string")
                properties[prop_name] = self.convert_json_type_to_python_type(json_type)

            model = create_model(
                class_name,
                __base__=BaseModel,
                __doc__=tool.description,
                **properties,
            )
            dynamic_classes[class_name] = model

        if dynamic_classes:
            all_tools_type = Union[tuple(dynamic_classes.values())]
            Response = create_model(
                "Response",
                __base__=BaseModel,
                __doc__="LLm 响应类",
                response=(str, Field(..., description= "确认将调用该函数的消息")),
                tool=(all_tools_type, Field(
                    ...,
                    description="用于运行并获取神奇输出的工具"
                )),
            )
        else:
            Response = create_model(
                "Response",
                __base__=BaseModel,
                __doc__="LLm 响应类",
                response=(str, ...),
                tool=(Optional[Any], Field(None, description="如果不返回 None,则使用此工具")),
            )
        self.response_model = Response

    async def ollama_chat(self, messages: list[dict[str, str]]) -> Any:
        """
        使用动态响应模型向 Ollama 发送消息。
        如果响应中包含工具,则使用持久会话调用它。
        """
        conversation = [{"role":"assistant", "content": f"你必须使用工具。你有以下函数可用。{[ tool.name for tool in self.tools ]}"}]
        conversation.extend(messages)
        if self.response_model is None:
            raise ValueError("响应模型尚未创建。请先调用 create_response_model()。")

        # 获取聊天消息格式的 JSON 模式。
        format_schema = self.response_model.model_json_schema()

        # 调用 Ollama(假设是同步的)并解析响应。
        response = chat(
            model="gemma3:latest",
            messages=conversation,
            format=format_schema
        )
        print("Ollama 响应", response.message.content)
        response_obj = self.response_model.model_validate_json(response.message.content)
        maybe_tool = response_obj.tool

        if maybe_tool:
            function_name = maybe_tool.__class__.__name__.lower()
            func_args = maybe_tool.model_dump()
            # 使用 asyncio.to_thread 在线程中调用同步的 call_tool 方法。
            output = await asyncio.to_thread(self.call_tool, function_name, func_args)
            return output
        else:
            print("响应中未检测到工具。返回纯文本响应。")
        return response_obj.response


async def main():
    server_parameters = StdioServerParameters(
        command="uv",
        args=["run", "python", "server.py"],
        cwd=str(Path.cwd())
    )

    # 创建持久会话。
    persistent_session = OllamaMCP(server_parameters)

    # 等待会话完全初始化。
    if persistent_session.initialized.wait(timeout=30):
        print("已准备好调用工具。")
    else:
        print("错误:初始化超时。")

    # 根据获取的工具创建动态响应模型。
    persistent_session.create_response_model()

    # 为 Ollama 准备消息。

    messages = [
        {
            "role": "system",
            "content": (
                "你是一个听话的助手,上下文中有工具列表。 "
                "你的任务是使用该函数来获取神奇的输出。 "
                "不要自己生成神奇的输出。 "
                "用简短的消息回复,提到将调用该函数, "
                "但不要提供函数输出本身。 "
                "将该简短消息放在 'response' 属性中。 "
                "例如:'好的,我将运行 magicoutput 函数并返回输出。' "
                "同时在 'tool' 属性中填写正确的参数。 "
            )
        },
        {
            "role": "user",
            "content": "使用该函数获取神奇的输出,参数为 (obj1 = Wombat 和 obj2 = Dog)"
        }
    ]

    # 调用 Ollama 并处理响应。
    result = await persistent_session.ollama_chat(messages)
    print("最终结果:", result)

    # 关闭持久会话。
    persistent_session.shutdown()

if __name__ == "__main__":
    asyncio.run(main())

你可以看到输出完美无缺。我们收到了一个包含简短消息的 response,以及将发送到 MCP 服务器的 tool 和参数。最后,我们得到了服务器的输出,如下所示:

[04/15/25 09:52:49] INFO     正在启动服务器 "TestServer"...    server.py:171
                    INFO     正在处理请求类型         server.py:534
                            ListToolsRequest
已准备好调用工具。
Ollama 响应 {
"response": "好的,我将运行 magicoutput,参数为 obj1 = Wombat 和 obj2 = Dog。",
"tool": {"obj1": "Wombat", "obj2": "Dog"}
}

[04/15/25 09:52:52] INFO     正在处理请求类型         server.py:534
                            CallToolRequest
最终结果: meta=None content=[TextContent(type='text', text='WomboWombat', annotations=None)] isError=False
持久 MCP 会话已关闭。

更多精彩内容

如果你真的喜欢这些博客,我敢肯定你也会喜欢接下来的内容。一定要为它们点赞,支持每篇博客所需的时间和努力!

总结

就这样,我们刚刚完成了一种将 Ollama 中的小型模型与本地 MCP 服务器连接的方法。

我们从创建一个简单的 MCP 服务器开始,它包含一个工具。然后我们构建了一个客户端,用于连接到服务器,获取工具定义,并将它们转换为 Pydantic 模型。在此基础上,我们通过 format 字段将响应模型传递给 Ollama。模型返回了一个结构化响应,我们使用后台线程和队列在客户端处理工具调用。

点赞并关注我,获取更多类似内容。后期将扩展这个功能,构建一个完整的代理循环,并开始使用真实的 MCP 服务器创建有用的工作流。

本文地址:https://www.vps345.com/2350.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge python MCP 进程 操作系统 进程控制 Ubuntu ssh 阿里云 网络 网络安全 网络协议 llama 算法 opencv 自然语言处理 神经网络 语言模型 ubuntu deepseek Ollama 模型联网 API CherryStudio RTSP xop RTP RTSPServer 推流 视频 数据库 centos oracle 关系型 安全 分布式 php android Dell R750XS tcp/ip ssl GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 深度学习 YOLO 目标检测 计算机视觉 人工智能 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse harmonyos typescript 鸿蒙 HCIE 华为 数通 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 macos adb java 面试 性能优化 jdk intellij-idea 架构 numpy 开发语言 计算机网络 c# Flask FastAPI Waitress Gunicorn uWSGI Uvicorn flutter rust http udp unity chatgpt 大模型 llama3 Chatglm 开源大模型 ping++ 运维开发 前端框架 笔记 C 环境变量 进程地址空间 conda 机器学习 c++ 深度优先 图论 并集查找 换根法 树上倍增 ollama ai llm docker 容器 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 pytorch pycharm ide vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 jmeter 软件测试 银河麒麟服务器操作系统 系统激活 僵尸进程 jenkins gitee spring boot sqlserver golang uni-app 负载均衡 物联网 ESP32 单片机 豆瓣 追剧助手 迅雷 nas 微信 后端 tomcat LDAP websocket vscode maven intellij idea Windsurf asm 实时音视频 nginx 监控 自动化运维 智能路由器 外网访问 内网穿透 端口映射 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 大数据 大数据平台 windows vim .net django flask web3.py WSL2 开源 产品经理 agi microsoft DeepSeek-R1 API接口 live555 rtsp rtp node.js json html5 firefox YOLOv12 WSL win11 无法解析服务器的名称或地址 apache web安全 Kali Linux 黑客 渗透测试 信息收集 vue3 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 redis mybatis 计算机外设 电脑 mac 软件需求 ffmpeg 音视频 github 创意 社区 嵌入式硬件 温湿度数据上传到服务器 Arduino HTTP cpu 内存 实时 使用 Hyper-V WinRM TrustedHosts C语言 微信分享 Image wxopensdk 学习 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 react.js 前端面试题 持续部署 YOLOv8 NPU Atlas800 A300I pro asi_bench 经验分享 学习方法 ollama下载加速 AI Agent Qwen2.5-coder 离线部署 transformer c语言 qt stm32项目 stm32 科技 个人开发 pip AI编程 iot .netcore cuda cudnn anaconda 微服务 springcloud oceanbase rc.local 开机自启 systemd 麒麟 嵌入式 linux驱动开发 arm开发 音乐服务器 Navidrome 音流 微信小程序 小程序 kylin elasticsearch 智能手机 NAS Termux Samba Linux 进程信号 CLion 远程连接 IDE Erlang OTP gen_server 热代码交换 事务语义 spring 信息与通信 ip svn 低代码 远程工作 缓存 hugo curl wget 远程桌面 华为od OD机试真题 华为OD机试真题 服务器能耗统计 pygame 小游戏 五子棋 ruoyi MQTT协议 消息服务器 代码 DeepSeek行业应用 DeepSeek Heroku 网站部署 jupyter 爬虫 数据集 Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 AI写作 AI作画 AIGC 软件工程 react next.js 部署 部署next.js QQ 聊天室 spring cloud linux 命令 sed 命令 自动化 mysql 集成学习 集成测试 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 机器人 bot Docker nvidia gpu算力 nuxt3 云原生 devops springboot 设置代理 实用教程 java-ee 压力测试 测试工具 测试用例 功能测试 muduo virtualenv bash 系统架构 XCC Lenovo kubernetes VMware安装Ubuntu Ubuntu安装k8s k8s mysql离线安装 ubuntu22.04 mysql8.0 其他 繁忙 服务器繁忙 解决办法 替代网站 汇总推荐 AI推理 混合开发 环境安装 JDK dba git ansible sql KingBase list 数据结构 命令行 基础入门 编程 skynet 硬件架构 图像处理 centos-root /dev/mapper yum clean all df -h / du -sh vscode 1.86 grafana prometheus IPMI unix gitlab 漏洞 kind 安全威胁分析 银河麒麟 kylin v10 麒麟 v10 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 网络穿透 云服务器 技能大赛 指令 mq rabbitmq rocketmq kafka Nuxt.js SSH Xterminal ip命令 新增网卡 新增IP 启动网卡 弹性计算 裸金属服务器 弹性裸金属服务器 虚拟化 openEuler unity3d postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 express okhttp CORS 跨域 Ubuntu Server Ubuntu 22.04.5 大语言模型 zabbix https eNSP 网络规划 VLAN 企业网络 protobuf 序列化和反序列化 安装 aws googlecloud linux环境变量 Google pay Apple pay 飞牛NAS 飞牛OS MacBook Pro 服务器主板 AI芯片 webstorm android studio 交互 强制清理 强制删除 mac废纸篓 IIS服务器 IIS性能 日志监控 Docker Hub docker pull 镜像源 daemon.json 能力提升 面试宝典 技术 IT信息化 代码调试 ipdb 腾讯云 企业微信 Linux24.04 deepin Reactor 设计模式 C++ matlab 边缘计算 智能硬件 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm minicom 串口调试工具 dubbo MS Materials WebUI DeepSeek V3 AI大模型 openssl 密码学 Ark-TS语言 gateway Clion Nova ResharperC++引擎 Centos7 远程开发 NFS 业界资讯 模拟退火算法 code-server MQTT mosquitto 消息队列 postgresql r语言 数据挖掘 数据可视化 数据分析 Docker Compose docker compose docker-compose 计算机 程序员 sqlite efficientVIT YOLOv8替换主干网络 TOLOv8 hibernate 课程设计 sqlite3 shell kamailio sip VoIP TRAE iftop 网络流量监控 Playwright 自动化测试 echarts 信息可视化 网页设计 make命令 makefile文件 jar gradle docker命令大全 5G 3GPP 卫星通信 数据库系统 pillow remote-ssh VMware安装mocOS VMware macOS系统安装 鸿蒙系统 华为云 rust腐蚀 安卓 统信 国产操作系统 虚拟机安装 框架搭建 串口服务器 文件系统 路径解析 Trae AI代码编辑器 C# MQTTS 双向认证 emqx gcc Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 RustDesk自建服务器 rustdesk服务器 docker rustdesk 雨云 NPS 孤岛惊魂4 LLM 大模型面经 职场和发展 Deepseek 大模型学习 WebRTC gpt 系统开发 binder 车载系统 framework 源码环境 mongodb 恒源云 k8s集群资源管理 云原生开发 hadoop 程序人生 vSphere vCenter 软件定义数据中心 sddc RTMP 应用层 ros2 moveit 机器人运动 opcua opcda KEPServer安装 oneapi 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 eureka 大模型微调 open webui RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 idm Linux PID 腾讯云大模型知识引擎 selete 高级IO 编辑器 传统数据库升级 银行 LLMs Dify webrtc 多线程服务器 Linux网络编程 移动云 1024程序员节 springsecurity6 oauth2 授权服务器 token sas FTP 服务器 selenium 医疗APP开发 app开发 报错 mcu pdf wireshark 显示过滤器 ICMP Wireshark安装 VSCode ci/cd raid5数据恢复 磁盘阵列数据恢复 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 visualstudio 服务器部署ai模型 SSL 域名 JAVA Java tcpdump rsyslog AI 原生集成开发环境 Trae AI 3d 蓝桥杯 状态管理的 UDP 服务器 Arduino RTOS 驱动开发 硬件工程 嵌入式实习 mariadb 流式接口 pyqt 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 Kylin-Server 服务器安装 EasyConnect Cline ecmascript nextjs reactjs 网工 opensearch helm 搜索引擎 ssrf 失效的访问控制 openwrt fpga开发 ux 多线程 灵办AI open Euler dde 统信UOS Redis Desktop 政务 分布式系统 监控运维 Prometheus Grafana 图形化界面 xrdp string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 向日葵 游戏服务器 TrinityCore 魔兽世界 adobe Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket 雨云服务器 wsl2 wsl 环境迁移 虚拟机 ESXi Dell HPE 联想 浪潮 崖山数据库 YashanDB visual studio code 源码剖析 rtsp实现步骤 流媒体开发 GCC crosstool-ng Ubuntu 24.04.1 轻量级服务器 redhat safari Mac 系统 相差8小时 UTC 时间 netty asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 rpc 远程过程调用 Windows环境 etcd 数据安全 RBAC 直播推流 多层架构 解耦 金融 毕设 RAID RAID技术 磁盘 存储 服务器管理 宝塔面板 配置教程 网站管理 playbook 剧本 dify kvm 无桌面 分析解读 gitea 媒体 微信公众平台 risc-v html css Invalid Host allowedHosts vue docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos bootstrap web 博客 springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 debian mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 ecm bpm 压测 ECS MacMini 迷你主机 mini Apple HarmonyOS Next DevEco Studio 宕机切换 服务器宕机 excel 微信开放平台 微信公众号配置 bonding 链路聚合 多进程 远程 命令 执行 sshpass 操作 Minecraft threejs 3D ddos freebsd PVE KVM zotero WebDAV 同步失败 代理模式 VR手套 数据手套 动捕手套 动捕数据手套 SSH 服务 SSH Server OpenSSH Server iDRAC R720xd CPU 主板 电源 网卡 dell服务器 go av1 电视盒子 机顶盒ROM 魔百盒刷机 半虚拟化 硬件虚拟化 Hypervisor IIS .net core Hosting Bundle .NET Framework vs2022 数学建模 XFS xfs文件系统损坏 I_O error es jvm 蓝耘科技 元生代平台工作流 ComfyUI micropython esp32 mqtt 磁盘监控 命名管道 客户端与服务端通信 服务器配置 X11 Xming ue4 着色器 ue5 虚幻 生物信息学 目标跟踪 OpenVINO 推理应用 pgpool 开机自启动 田俊楠 chrome devtools chromedriver ArcTS 登录 ArcUI GridItem arkUI minio W5500 OLED u8g2 TCP服务器 jetty undertow chfs ubuntu 16.04 UOS 统信操作系统 yum Cursor firewalld 交换机 硬件 设备 GPU PCI-Express ui 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 语法 游戏引擎 rustdesk 自学笔记 小米 澎湃OS Android arcgis 影刀 #影刀RPA# 群晖 g++ g++13 MNN Qwen eclipse 中间件 pyautogui c pppoe radius 图形渲染 bat SWAT 配置文件 服务管理 网络共享 ios gaussdb 黑苹果 dns是什么 如何设置电脑dns dns应该如何设置 银河麒麟桌面操作系统 Kylin OS 国产化 xss sdkman 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 实习 代理 alias unalias 别名 ocr AI agent 思科模拟器 思科 Cisco IM即时通讯 剪切板对通 HTML FORMAT saltstack rdp 远程服务 qt项目 qt项目实战 qt教程 ragflow 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 稳定性 看门狗 cd 目录切换 权限 源码 毕业设计 Typore CDN npm 自动化任务管理 算力 regedit 开机启动 Radius prompt easyui langchain cnn GoogLeNet 京东云 EMQX 通信协议 计算虚拟化 弹性裸金属 飞牛nas fnos apt 国内源 edge浏览器 hive Hive环境搭建 hive3环境 Hive远程模式 安全架构 log4j webgl tensorflow windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 根服务器 clickhouse yum源切换 更换国内yum源 embedding 社交电子 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 ArkTs ArkUI 阻塞队列 生产者消费者模型 服务器崩坏原因 laravel Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 flash-attention less 直流充电桩 充电桩 vr docker run 数据卷挂载 交互模式 junit Open WebUI 阿里云ECS 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? LORA NLP 显示管理器 lightdm gdm 交叉编译 同步 备份 建站 系统安全 bug 免费域名 域名解析 p2p 知识库 RAGFlow 本地知识库部署 DeepSeek R1 模型 epoll Linux环境 Linux的权限 游戏机 Netty 即时通信 NIO dns HTTP 服务器控制 ESP32 DeepSeek 移动魔百盒 USB转串口 CH340 备选 网站 api 调用 示例 AD域 arm 反向代理 致远OA OA服务器 服务器磁盘扩容 邮件APP 免费软件 监控k8s 监控kubernetes 游戏程序 自动驾驶 vasp安装 查询数据库服务IP地址 SQL Server 语音识别 AutoDL tidb GLIBC 单例模式 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 tcp 视觉检测 xml VMware创建虚拟机 链表 华为认证 网络工程师 AISphereButler iphone DenseNet 银河麒麟高级服务器 外接硬盘 Kylin 虚拟显示器 远程控制 ruby CrewAI flink cmos qemu libvirt 华为机试 nac 802.1 portal WebVM DocFlow 回显服务器 UDP的API使用 重启 排查 系统重启 日志 原因 做raid 装系统 BMC Java Applet URL操作 服务器建立 Socket编程 网络文件读取 大模型入门 大模型教程 ukui 麒麟kylinos openeuler wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 并查集 leetcode 无人机 ftp 火绒安全 升级 CVE-2024-7347 VPS VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 网络结构图 yaml Ultralytics 可视化 需求分析 规格说明书 监控k8s集群 集群内prometheus 架构与原理 ceph 自动化编程 big data MacOS录屏软件 IDEA Claude 飞书 mamba Vmamba uniapp AnythingLLM AnythingLLM安装 web3 vscode1.86 1.86版本 ssh远程连接 深度求索 私域 camera Arduino 电子信息 信号处理 匿名管道 IPMITOOL 硬件管理 frp EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 lua vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 本地部署AI大模型 LInux 单一职责原则 串口驱动 CH341 uart 485 composer can 线程池 云服务 bcompare Beyond Compare 可信计算技术 模拟器 教程 鲲鹏 telnet 远程登录 spark HistoryServer Spark YARN jobhistory Linux的基础指令 Headless Linux 音乐库 飞牛 asp.net大文件上传下载 iis linux上传下载 自定义客户端 SAS 僵尸世界大战 游戏服务器搭建 银河麒麟操作系统 实战案例 USB网络共享 midjourney zookeeper nfs rime Anolis nginx安装 linux插件下载 昇腾 npu 嵌入式Linux IPC cfssl ssh漏洞 ssh9.9p2 CVE-2025-23419 v10 软件 ldap armbian u-boot EMUI 回退 降级 vmware 卡死 linux安装配置 kali 共享文件夹 黑客技术 URL etl 本地部署 banner 技术共享 IO模型 cpp-httplib 单元测试 MI300x 执法记录仪 智能安全帽 smarteye SysBench 基准测试 SSE ROS LLM Web APP Streamlit n8n 工作流 workflow perf 开发环境 SSL证书 sysctl.conf vm.nr_hugepages DBeaver 数据仓库 kerberos 网络用户购物行为分析可视化平台 大数据毕业设计 elk matplotlib 性能测试 odoo 服务器动作 Server action 产测工具框架 IMX6ULL 管理框架 trae python3.11 视频编解码 gpt-3 文心一言 openstack Xen 迁移指南 IMX317 MIPI H265 VCU 文件分享 历史版本 下载 代码托管服务 远程看看 远程协助 线程 序列化反序列化 sentinel 主从复制 Logstash 日志采集 软件构建 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 矩阵 swoole 三级等保 服务器审计日志备份 FTP服务器 Ubuntu共享文件夹 共享目录 Linux共享文件夹 佛山戴尔服务器维修 佛山三水服务器维修 ipython uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 VS Code 实时互动 P2P HDLC 工业4.0 联想开天P90Z装win10 多个客户端访问 IO多路复用 TCP相关API 双系统 GRUB引导 Linux技巧 策略模式 干货分享 黑客工具 密码爆破 c/c++ 串口 软考 tailscale derp derper 中转 OpenSSH triton 模型分析 线性代数 电商平台 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors 用户缓冲区 模拟实现 互信 小智AI服务端 xiaozhi ASR TTS C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 支付 微信支付 开放平台 宠物 免费学习 宠物领养 宠物平台 uv AD 域管理 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 网站搭建 serv00 小艺 Pura X 网络攻击模型 大模型应用 cursor MCP server C/S windows日志 IPv4 子网掩码 公网IP 私有IP 软负载 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 DOIT 四博智联 Unity Dedicated Server Host Client 无头主机 SenseVoice seatunnel 毕昇JDK 程序员创富 常用命令 文本命令 目录命令 Kali 渗透 我的世界服务器搭建 minecraft thingsboard 安防软件 端口测试 版本 H3C rnn 7z Cookie 前后端分离 输入法 分布式训练 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 fd 文件描述符 Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer glibc keepalived xshell termius iterm2 Jellyfin FunASR Ubuntu22.04 开发人员主页 neo4j 数据库开发 database file server http server web server trea idea AI-native Docker Desktop outlook xcode 实验 服务网格 istio 王者荣耀 Wi-Fi 超融合 DNS Spring Security 我的世界 我的世界联机 数码 宝塔 键盘 ISO镜像作为本地源 DeepSeek r1 云电竞 云电脑 todesk OpenManus 网络建设与运维 NLP模型 x64 SIGSEGV xmm0 HarmonyOS OpenHarmony 真机调试 miniapp 调试 debug 断点 网络API请求调试方法 HiCar CarLife+ CarPlay QT RK3588 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 嵌入式系统开发 docker desktop image 鸿蒙开发 移动开发 代理服务器 大模型推理 捆绑 链接 谷歌浏览器 youtube google gmail 运维监控 sequoiaDB onlyoffice figma word 智能音箱 智能家居 prometheus数据采集 prometheus数据模型 prometheus特点 Linux find grep 相机 docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 nlp 个人博客 rag 大模型部署 查看显卡进程 fuser wsgiref Web 服务器网关接口 ArtTS 云耀服务器 HAProxy vpn 物联网开发 本地化部署 考研 在线office xpath定位元素 webdav MacOS Xinference chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 私有化 SEO ardunio BLE 玩机技巧 软件分享 软件图标 CentOS MySql deep learning 程序 Mac内存不够用怎么办 强化学习 环境配置 perl 李心怡 harmonyOS面试题 WLAN deepseek r1 SVN Server tortoise svn 金仓数据库 2025 征文 数据库平替用金仓 wpf 软链接 硬链接 db su sudo 流水线 脚本式流水线 健康医疗 互联网医院 粘包问题 信创 信创终端 中科方德 镜像 ros 虚幻引擎 virtualbox HarmonyOS NEXT 原生鸿蒙 内网服务器 内网代理 内网通信 问题解决 ubuntu24 vivado24 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 Python基础 Python教程 Python技巧 kotlin navicat fstab KylinV10 麒麟操作系统 Vmware 极限编程 autodl Attention jina aarch64 编译安装 HPC 烟花代码 烟花 元旦 性能调优 安全代理 IMM iBMC UltraISO 基础环境 磁盘清理 域名服务 DHCP 符号链接 配置 powerpoint dity make 树莓派 VNC react native 开发 Qwen2.5-VL vllm searxng PPI String Cytoscape CytoHubba AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 ssh远程登录 Windows ai工具 浏览器开发 AI浏览器 java-rocketmq 抗锯齿 nvm whistle gnu GIS 遥感 WebGIS 知识图谱 firewall deekseek 大大通 第三代半导体 碳化硅 项目部署到linux服务器 项目部署过程 ubuntu24.04.1 中兴光猫 换光猫 网络桥接 自己换光猫 内网环境 h.264 多端开发 智慧分发 应用生态 鸿蒙OS MVS 海康威视相机 win服务器架设 windows server fast 推荐算法 聚类 网卡的名称修改 eth0 ens33 rclone AList fnOS 换源 Debian proxy模式 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 虚拟局域网 SRS 流媒体 直播 Deepseek-R1 私有化部署 推理模型 元服务 应用上架 llama.cpp 拓扑图 软件卸载 系统清理 dash 正则表达式 TCP协议 ShenTong 显卡驱动 UOS1070e milvus QT 5.12.12 QT开发环境 Ubuntu18.04 容器技术 性能分析 人工智能生成内容 状态模式 seleium docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 信号 对比 工具 meld DiffMerge 加解密 Yakit yaklang visual studio rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK hexo 流量运营 lio-sam SLAM PX4 ranger MySQL8.0 项目部署 MDK 嵌入式开发工具 论文笔记 sublime text ubuntu20.04 ros1 Noetic 20.04 apt 安装 SSH 密钥生成 SSH 公钥 私钥 生成 cocoapods Node-Red 编程工具 流编程 防火墙 NAT转发 NAT Server wps top Linux top top命令详解 top命令重点 top常用参数 yolov8 端口 查看 ss deployment daemonset statefulset cronjob iperf3 带宽测试 读写锁 AI Agent 字节智能运维 企业网络规划 华为eNSP DIFY Unity插件 iventoy VmWare OpenEuler css3 TrueLicense sonoma 自动更新 ragflow 源码启动 云桌面 微软 AD域控 证书服务器 UDP 端口聚合 windows11 ABAP 钉钉 grub 版本升级 扩容 服务器时间 游戏开发 办公自动化 自动化生成 pdf教程 合成模型 扩散模型 图像生成 存储维护 NetApp存储 EMC存储 带外管理 抓包工具 System V共享内存 进程通信 vu大文件秒传跨域报错cors 接口优化 k8s二次开发 rpa conda配置 conda镜像源 西门子PLC 通讯 WSL2 上安装 Ubuntu 解决方案 上传视频文件到服务器 uniApp本地上传视频并预览 uniapp移动端h5网页 uniapp微信小程序上传视频 uniapp app端视频上传 uniapp uview组件库 docker部署Python mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 数字证书 签署证书 多路转接 智能电视 hosts MAVROS 四旋翼无人机 yum换源 zip unzip 网络爬虫 搭建个人相关服务器 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR AI员工 通信工程 毕业 服务器正确解析请求体 Sealos 论文阅读 开机黑屏 rancher 欧标 OCPP IO 沙盒 网络搭建 神州数码 神州数码云平台 云平台 CentOS Stream ip协议 nosql MobaXterm macOS dock 加速 计算生物学 生物信息 基因组 热榜 风扇控制软件 搜狗输入法 中文输入法 离线部署dify kernel 浏览器自动化 集群管理 js 达梦 DM8 yolov5