最新资讯

  • ollama 部署教程(window、linux)

ollama 部署教程(window、linux)

2025-04-30 04:00:58 0 阅读

目录

一、官网

二、安装方式一:window10版本下载

三、安装方式二:linux版本docker

四、 模型库

五、运行模型

六、API服务

七、python调用

ollama库调用

langchain调用 

requests调用

aiohttp调用

八、模型添加方式

1.线上pull

2.导入 GGUF 模型文件

3.导入 safetensors 模型文件

九、部署Open WebUI


参考链接:Ollama完整教程:本地LLM管理、WebUI对话、Python/Java客户端API应用 - 老牛啊 - 博客园 (cnblogs.com)https://www.cnblogs.com/obullxl/p/18295202/NTopic2024071001

一、官网

在 macOS 上下载 Ollama - Ollama 中文

二、安装方式一:window10版本下载

安装完成没有提示。 接下来配置环境变量!

Ollama的安装过程,与安装其他普通软件并没有什么两样,安装完成之后,有几个常用的系统环境变量参数建议进行设置:

  1. OLLAMA_MODELS:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C:Users%username%.ollamamodels,MacOS 目录:~/.ollama/models,Linux 目录:/usr/share/ollama/.ollama/models),如果是 Windows 系统建议修改(如:D:OllamaModels),避免 C 盘空间吃紧
  2. OLLAMA_HOST:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置0.0.0.0,从而允许其他网络访问
  3. OLLAMA_PORT:Ollama 服务监听的默认端口,默认为11434,如果端口有冲突,可以修改设置成其他端口(如:8080等)
  4. OLLAMA_ORIGINS:HTTP 客户端请求来源,半角逗号分隔列表,若本地使用无严格要求,可以设置成星号,代表不受限制
  5. OLLAMA_KEEP_ALIVE:大模型加载到内存中后的存活时间,默认为5m即 5 分钟(如:纯数字如 300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活);我们可设置成24h,即模型在内存中保持 24 小时,提高访问速度
  6. OLLAMA_NUM_PARALLEL:请求处理并发数量,默认为1,即单并发串行处理请求,可根据实际情况进行调整
  7. OLLAMA_MAX_QUEUE:请求队列长度,默认值为512,可以根据情况设置,超过队列长度请求被抛弃
  8. OLLAMA_DEBUG:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题
  9. OLLAMA_MAX_LOADED_MODELS:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中

看看是不是已经启动了ollama。右下角图标如下 

如果没有,则去打开一下

黑窗口查看一下 版本

浏览器查看一下API服务:127.0.0.1:11434

 如果出现连接不上,则检查一下环境变量是不是配错了,是不是没有E盘(如果你照抄)。 

运行一个0.5b的qwen模型

ollama run qwen2:0.5b

看看API访问情况: 

提问:

对话: 

① system 代表系统设定(也就是告诉chatGPT他的角色)

② user 表示用户

③ assistant 表示GPT的回复

三、安装方式二:linux版本docker

Olama现已作为官方Docker镜像提供 · Olama博客 - Ollama 中文

docker run -d -v /home/ollama:/root/.ollama -p 11435:11434 --name ollama ollama/ollama

主机的/home/ollama文件夹映射到容器的/root/.ollama文件夹

主机的11435端口映射到容器的11434端口 

 

进入容器内部:

docker exec -it ollama /bin/bash

 查看ollama执行

ollama

ollama serve    # 启动ollama
ollama create    # 从模型文件创建模型
ollama show        # 显示模型信息
ollama run        # 运行模型,会先自动下载模型
ollama pull        # 从注册仓库中拉取模型
ollama push        # 将模型推送到注册仓库
ollama list        # 列出已下载模型
ollama ps        # 列出正在运行的模型
ollama cp        # 复制模型
ollama rm        # 删除模型

# 本地模型列表
>ollama list
NAME            ID              SIZE    MODIFIED
gemma2:9b       c19987e1e6e2    5.4 GB  7 days ago
qwen2:7b        e0d4e1163c58    4.4 GB  10 days ago
# 删除单个模型
>ollama rm gemma2:9b
deleted 'gemma2:9b'

>ollama list
NAME            ID              SIZE    MODIFIED
qwen2:7b        e0d4e1163c58    4.4 GB  10 days ago
# 启动本地模型
>ollama run qwen2:0.5b
>>>
# 运行中模型列表
>ollama ps
NAME            ID              SIZE    PROCESSOR       UNTIL
qwen2:0.5b      6f48b936a09f    693 MB  100% CPU        4 minutes from now
# 复制本地大模型:ollama cp 本地存在的模型名 新复制模型名
>ollama cp qwen2:0.5b Qwen2-0.5B
copied 'qwen2:0.5b' to 'Qwen2-0.5B'

>ollama list
NAME                    ID              SIZE    MODIFIED
Qwen2-0.5B:latest       6f48b936a09f    352 MB  4 seconds ago
qwen2:0.5b              6f48b936a09f    352 MB  29 minutes ago
qwen2:7b                e0d4e1163c58    4.4 GB  10 days ago

四、 模型库

library (ollama.com)

五、运行模型

模型要求

 这里我们运行一个要求最小的0.5B的qwen模型。

注意这是在容器内部运行的: 

ollama run qwen2:0.5b
root@535ec4243693:/# ollama run qwen2:0.5b
pulling manifest 
pulling 8de95da68dc4... 100% ▕████████████████████████████████████▏ 352 MB                         
pulling 62fbfd9ed093... 100% ▕████████████████████████████████████▏  182 B                         
pulling c156170b718e... 100% ▕████████████████████████████████████▏  11 KB                         
pulling f02dd72bb242... 100% ▕████████████████████████████████████▏   59 B                         
pulling 2184ab82477b... 100% ▕████████████████████████████████████▏  488 B                         
verifying sha256 digest 
writing manifest 
removing any unused layers 
success 
>>> 你是谁
我是来自阿里云的超大规模语言模型——通义千问。我能够理解、生产、传播各种语言和文字,可以回答您在任
何语言或任何问题的问题。

>>> Send a message (/? for help)

六、API服务

文档地址:

  • model:(必需)模型名称
  • prompt:生成响应的提示
  • suffix:模型响应后的文本
  • images:(可选)base64 编码图像列表(对于多模态模型,例如llava)

高级参数(可选):

  • format:返回响应的格式。目前唯一接受的值是json
  • options:Modelfile 文档中列出的其他模型参数,例如temperature
  • system:系统消息更改为(覆盖Modelfile)
  • template:要使用的提示模板(覆盖Modelfile)
  • context:从上一个请求返回的 context 参数 to ,这可用于保持较短的对话记忆/generate
  • stream:如果响应将作为单个响应对象返回,而不是对象流false
  • raw:如果没有格式将应用于提示。如果您在对 API 的请求中指定了完整的模板化提示,则可以选择使用该参数trueraw
  • keep_alive:控制模型在请求后加载到内存中的时间(默认值:5m)
curl --location --request POST 'http://127.0.0.1:11435/api/generate' 
--header 'User-Agent: Apifox/1.0.0 (https://apifox.com)' 
--header 'Content-Type: application/json' 
--data-raw '{
    "model": "qwen2:0.5b",
    "prompt": "你知道麦克斯韦吗"
}'
curl --location --request POST 'http://127.0.0.1:11435/api/chat' 
--header 'User-Agent: Apifox/1.0.0 (https://apifox.com)' 
--header 'Content-Type: application/json' 
--data-raw '{
    "model": "qwen2:0.5b",
    "messages": [
        {
            "role": "system",
            "content": "你是一个历史专家"
        },
        {
            "role": "user",
            "content": "东北三省是哪三个?"
        },
        {
            "role": "assistant",
            "content": "东北三省是指中国东北地区(不含内蒙古)。它包括吉林省的延边朝鲜族自治州、黑龙江省的黑河市和哈尔滨市,以及辽宁省的抚顺市、本溪市、丹东市。其中,延边州包括临山子、龙沙等13个县市。"
        },
        {
            "role": "user",
            "content": "张作霖的势力是在这里兴起的吗"
        }
    ],
    "stream": false
}'

① system 代表系统设定(也就是告诉chatGPT他的角色)

② user 表示用户

③ assistant 表示GPT的回复

 API访问会激活模型,经过keep_alive的时间内(默认5m)如果没有访问,则会自动下线模型。当再次有API访问,则会再次自动激活模型。

如果keep_alive的值为零0,则是主动将模型下线。比如:

curl http://localhost:11434/api/chat -d '{
  "model": "llama3.1",
  "messages": [],
  "keep_alive": 0
}'

七、python调用

  • temperature:用于调整生成结果的创造性程度,设置越高,生成的文本越新颖、越独特,设置越低,结果更集中。
  • stream:默认false,是否流式传输回部分进度。
  • format: 转录输出的格式,可选项包括json、str等。

ollama库调用
pip install ollama
import ollama

host = "127.0.0.1"
port = "11434"
client = ollama.Client(host=f"http://{host}:{port}")
res = client.chat(model="qwen2:0.5b",
                  messages=[{"role": "user", "content": "你是谁"}],
                  options={"temperature": 0})

print(res)
langchain调用 
pip install langchain
pip install langchain_community
from langchain_community.llms import Ollama
host="127.0.0.1"
port="11434" #默认的端口号为11434
llm=Ollama(base_url=f"http://{host}:{port}", model="qwen2:0.5b",temperature=0)
res=llm.invoke("你是谁")
print(res)
requests调用
pip install requests
host="127.0.0.1"
port="11434"
url = f"http://{host}:{port}/api/chat"
model = "qwen2:0.5b"
headers = {"Content-Type": "application/json"}
data = {
        "model": model, #模型选择
        "options": {
            "temperature": 0.  #为0表示不让模型自由发挥,输出结果相对较固定,>0的话,输出的结果会比较放飞自我
         },
        "stream": False, #流式输出
        "messages": [{
            "role": "system",
            "content":"你是谁?"
        }] #对话列表
    }
response=requests.post(url,json=data,headers=headers,timeout=60)
res=response.json()
print(res)

aiohttp调用
pip install aiohttp

Welcome to AIOHTTP — aiohttp 3.10.5 documentation

import asyncio
import json
import aiohttp

host = "127.0.0.1"
port = "11434"
url = f"http://{host}:{port}/api/chat"

headers = {
    'Content-Type': 'application/json'
}

payload = json.dumps({
    "model": "qwen2:0.5b",
    "options": {
        "temperature": 0.  # 为0表示不让模型自由发挥,输出结果相对较固定,>0的话,输出的结果会比较放飞自我
    },
    "messages": [
        {"role": "system", "content": "你是一个历史砖家,专门胡说八道,混淆历史"},
        {"role": "user", "content": "吕雉和吕不韦是啥关系?汉朝是大秦帝国的延续吗?"}
    ],
    "stream": False
})


async def main():
    start_time = asyncio.get_event_loop().time()
    async with aiohttp.ClientSession() as session:
        try:
            async with session.post(url, headers=headers, data=payload, timeout=60) as response:
                if response.status == 200:
                    data = await response.text()
                    print(data)
                    end_time = asyncio.get_event_loop().time()
                    elapsed_time = end_time - start_time
        except asyncio.TimeoutError:
            print("请求超时了")

        finally:
            print(f"耗时:0.0570秒")


if __name__ == '__main__':
    asyncio.run(main())

八、模型添加方式

1.线上pull(推荐

即上述教程采用的方式。

2.导入 GGUF 模型文件(推荐
windows示例:
①.下载模型

从 HF 或者 ModeScope 下载了 GGUF 文件:qwen2-0_5b-instruct-q4_0.gguf

②.上传文件

新建一个文件夹来存放GGUF文件,例如我存放在E:huggingface_modelsqwen2-05b-q4中,在GGUF文件的同级,创建一个文件名为Modelfile的文件,该文件的内容如下:

FROM ./qwen2-0_5b-instruct-q4_0.gguf

③.导入模型

打开Modelfile所在文件夹下打开终端,执行命令导入模型文件:

ollama create 模型名称 -f ./Modelfile
ollama create qwen2-05b-q4 -f ./Modelfile

④.查看模型

导入成功之后,我们就可以通过list命名,看到名为qwen2-05b-q4的本地模型了,后续可以和其他模型一样进行管理了。

⑤.运行模型
ollama run qwen2-05b-q4:latest

Linux示例
①.在主机的/home/ollama文件夹下新建huggingface_models文件夹,
②.再在huggingface_models文件夹下新建qwen2-05b-q4文件夹。
③.将模型文件和Modelfile上传到上一步创建的qwen2-05b-q4文件夹中。
/home/ollama/huggingface_models/qwen2-05b-q4

④.进入ollama容器
docker exec -it ollama bash
⑤.cd 到映射的文件夹中
cd /root/.ollama/huggingface_models/qwen2-05b-q4

⑥. 执行导入模型命令
ollama create qwen2-05b-q4 -f ./Modelfile
⑦.查看导入的模型
ollama list

 

⑧.运行模型
ollama run qwen2-05b-q4:latest

3.导入 safetensors 模型文件(多了一个将safetensors转换成gguf文件的过程)

示例

①.下载模型文件

从 HF 或者 ModeScope 下载了 safetensors 文件

https://huggingface.co/Qwen/Qwen2.5-0.5B/tree/main

将模型所有文件上传到linux

在linux上新建一个文件夹huggingface_safetensors_models,再在里面新建一个文件夹qwen2-05b-q4,然后将模型所有文件上传进去

 

②.克隆ollama/ollama项目

git克隆,并设置python环境,最好是虚拟环境,防止依赖版本与其他项目冲突。可能会有类似下面的错误。博主使用的是conda,以此为例:

ollama/ollama: Get up and running with Llama 3.1, Mistral, Gemma 2, and other large language models. (github.com)

git clone git@github.com:ollama/ollama.git ollama

进入项目中

cd ollama

紧接着,同步 llm/llama.cpp 子模块

git submodule init
git submodule update llm/llama.cpp

③.设置环境

创建一个虚拟环境 

conda create -n ollama python=3.11

 

激活虚拟环境 

conda activate ollama

④.安装依赖

进入项目目录

cd /home/ollama/ollama

 

执行安装命令

pip install -r llm/llama.cpp/requirements.txt

 

如果报错,就多装几次,可能网络时间太长断开了。 

 ④.构建量化工具

如果没有make命令则安装一个make

sudo apt update
sudo apt install make

如果没有gcc 和 g++ 编译器 则需要安装一下

sudo apt update
sudo apt install build-essential

下边这个可选(可以加速) 

sudo apt install ccache

 构建量化工具

make -C llm/llama.cpp quantize

 ⑤.模型转换

将 safetensors 转换为 converted.bin格式:

python llm/llama.cpp/convert_hf_to_gguf.py 模型所在文件夹 --outtype f16 --outfile converted.bin
python llm/llama.cpp/convert_hf_to_gguf.py /home/ollama/huggingface_safetensors_models/qwen2-05b-q4 --outtype f16 --outfile converted.bin

注意:某些模型架构需要使用特定的转换脚本。例如,Qwen 模型需要运行 

1.outtype 指定了模型的格式,这里是 f16,也就是 float16 

2.生成的converted.bin文件在ollama项目的根目录下

⑥.生成llama系列文件

进入llama.cpp文件夹

cd llm/llama.cpp/

执行make命令 

make

 

此时在llama.cpp文件夹下生成了一些列的llama文件,其中有一个llama-quantize是我们需要的。 

 

 ⑦.量化模型

回到ollama项目目录下

上面转换的事f16,也就是float16,此时的访问速度很慢,我们需要向量化来加快它的计算速度。

这里我们量化成q4,也就是int4:

llm/llama.cpp/llama-quantize converted.bin quantized.bin q4_0

此时在ollama项目的根目录下生成了我们需要的文件quantized.bin,它与gguf文件作用相同

⑧.将quantized.bin文件放到我们的平时存放gguf文件的文件夹中:

我们将quantized.bin文件放到我们的平时存放gguf文件的文件夹中,比如我放到了huggingface_models,在huggingface_models中新建了一个文件夹qwen2-05b-q4-s来存放。

cp /home/ollama/ollama/quantized.bin /home/ollama/huggingface_models/qwen2-05b-q4-s/quantized.bin

在 quantized.bin同级新建Modelfile文件,内容如下

FROM quantized.bin
⑨.导入模型文件:ollama create 模型名称 -f ./Modelfile

进入ollama容器中

docker exec -it ollama bash

进入存放模型的文件夹中

cd /root/.ollama/huggingface_models/qwen2-05b-q4-s

 执行命令,创建Ollama模型

ollama create qwen2-05b-q4-s -f ./Modelfile
 ⑩.查看模型
ollama list

 

⑪.运行模型
ollama run qwen2-05b-q4-s:latest

九、部署Open WebUI

 🏡 Home | Open WebUI

本文地址:https://www.vps345.com/6006.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge 阿里云 网络 网络安全 网络协议 llama 算法 opencv 自然语言处理 神经网络 语言模型 ssh ubuntu 进程 操作系统 进程控制 Ubuntu deepseek Ollama 模型联网 API CherryStudio python MCP Flask FastAPI Waitress Gunicorn uWSGI Uvicorn RTSP xop RTP RTSPServer 推流 视频 harmonyos 华为 开发语言 typescript 计算机网络 科技 ai java 人工智能 个人开发 数据库 centos oracle 关系型 安全 分布式 pycharm ide pytorch filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 ssl 前端框架 golang 后端 HCIE 数通 numpy android 鸿蒙 vue3 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 asm c# flutter Hyper-V WinRM TrustedHosts 面试 性能优化 jdk intellij-idea 架构 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 tcp/ip macos adb vim YOLO efficientVIT YOLOv8替换主干网络 TOLOv8 php 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 Dell R750XS 华为云 物联网 flask spring boot AI编程 AIGC 嵌入式硬件 单片机 c++ 温湿度数据上传到服务器 Arduino HTTP udp unity vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 学习 rust http uni-app 深度学习 目标检测 计算机视觉 机器学习 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse vscode docker 容器 腾讯云 自动化 笔记 tomcat maven intellij idea Windsurf 实时音视频 github git ansible nginx dubbo 编辑器 r语言 数据挖掘 数据可视化 数据分析 .netcore word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 spring apache 大模型 运维开发 mysql kamailio sip VoIP C 环境变量 进程地址空间 大数据 大数据平台 框架搭建 websocket .net sqlserver 爬虫 网络用户购物行为分析可视化平台 大数据毕业设计 1024程序员节 rust腐蚀 Qwen2.5-coder 离线部署 测试工具 web安全 ollama mac 豆瓣 追剧助手 迅雷 nas 微信 node.js 僵尸进程 mcu iot 信息与通信 jupyter Dify gitlab kubernetes VMware安装Ubuntu Ubuntu安装k8s k8s 低代码 pip conda kafka windows jmeter 软件测试 YOLOv12 多线程服务器 Linux网络编程 监控 自动化运维 gateway Clion Nova ResharperC++引擎 Centos7 远程开发 c语言 智能路由器 外网访问 内网穿透 端口映射 计算机外设 pillow live555 rtsp rtp json html5 firefox 持续部署 ecmascript KVM 飞牛NAS 飞牛OS MacBook Pro WSL win11 无法解析服务器的名称或地址 Ubuntu Server Ubuntu 22.04.5 Linux Cookie https AI Agent Kali Linux 黑客 渗透测试 信息收集 django web3.py 小程序 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 mongodb 学习方法 经验分享 程序人生 cuda cudnn anaconda 微服务 springcloud 代码调试 ipdb 嵌入式 linux驱动开发 arm开发 进程信号 springsecurity6 oauth2 授权服务器 token sas 创意 社区 DeepSeek-R1 API接口 源码剖析 rtsp实现步骤 流媒体开发 rsyslog cpu 内存 实时 使用 firewalld 远程控制 远程看看 远程协助 jenkins gitee ollama下载加速 C语言 ipython YOLOv8 NPU Atlas800 A300I pro asi_bench DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 统信UOS 麒麟 bonding 链路聚合 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 ESP32 camera Arduino 电子信息 蓝耘科技 元生代平台工作流 ComfyUI qt stm32项目 stm32 prometheus debian PVE rabbitmq fpga开发 鸿蒙系统 react.js 前端面试题 电脑 软件需求 oceanbase rc.local 开机自启 systemd redis mybatis 产品经理 agi microsoft gpu算力 系统架构 chatgpt llama3 Chatglm 开源大模型 transformer ping++ 深度优先 图论 并集查找 换根法 树上倍增 ddos llm 微信分享 Image wxopensdk WSL2 zotero WebDAV 同步失败 代理模式 ffmpeg 音视频 list 数据结构 开源 银河麒麟服务器操作系统 系统激活 sql KingBase 博客 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 负载均衡 HarmonyOS Next 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 漏洞 命名管道 客户端与服务端通信 智能手机 NAS Termux Samba postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 LDAP aws googlecloud 边缘计算 智能硬件 java-ee safari Mac 系统 dify IIS服务器 IIS性能 日志监控 技能大赛 chrome devtools selenium chromedriver 虚拟化 半虚拟化 硬件虚拟化 Hypervisor 能力提升 面试宝典 技术 IT信息化 micropython esp32 mqtt unix rpc ArcTS 登录 ArcUI GridItem arkUI nuxt3 LLM 实时互动 ceph 计算机 程序员 华为od selete 高级IO sqlite AI大模型 postgresql pgpool openssl 密码学 业界资讯 云原生 ci/cd 模拟退火算法 Cursor 田俊楠 政务 分布式系统 监控运维 Prometheus Grafana code-server MQTT mosquitto 消息队列 docker compose outlook tcpdump 数据库系统 gpt-3 文心一言 C# MQTTS 双向认证 emqx 设计模式 软件工程 eureka spring cloud hibernate rocketmq ESXi 课程设计 其他 中间件 可信计算技术 安全架构 网络攻击模型 显卡驱动 机器人 visual studio code DeepSeek ip命令 新增网卡 新增IP 启动网卡 matlab echarts 信息可视化 网页设计 jar gradle 深度求索 私域 知识库 sdkman kind 宝塔面板 同步 备份 建站 etcd 数据安全 RBAC 企业微信 Linux24.04 deepin 大模型入门 Deepseek 大模型教程 webrtc 金融 remote-ssh 腾讯云大模型知识引擎 DevEco Studio 国产操作系统 ukui 麒麟kylinos openeuler 黑苹果 虚拟机 VMware pygame 小游戏 五子棋 W5500 OLED u8g2 TCP服务器 chfs ubuntu 16.04 统信 虚拟机安装 yum 远程工作 微信小程序 Java openEuler unity3d 网络穿透 云服务器 火绒安全 VPS Nuxt.js threejs 3D nvidia bug 报错 iBMC UltraISO zabbix 鲲鹏 昇腾 npu vSphere vCenter 软件定义数据中心 sddc RTMP 应用层 致远OA OA服务器 服务器磁盘扩容 开发环境 OD机试真题 华为OD机试真题 服务器能耗统计 线程 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos express okhttp CORS 跨域 雨云 NPS springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 mysql离线安装 ubuntu22.04 mysql8.0 源码 毕业设计 孤岛惊魂4 uniapp vue 恒源云 JAVA 混合开发 环境安装 JDK 传统数据库升级 银行 大语言模型 LLMs centos-root /dev/mapper yum clean all df -h / du -sh 京东云 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 IPMITOOL BMC 硬件管理 kylin arm opcua opcda KEPServer安装 oneapi 命令行 基础入门 编程 大模型微调 open webui hive Hive环境搭建 hive3环境 Hive远程模式 RAID RAID技术 磁盘 存储 XCC Lenovo 多进程 远程 命令 执行 sshpass 操作 华为认证 网络工程师 交换机 繁忙 服务器繁忙 解决办法 替代网站 汇总推荐 AI推理 移动云 MS Materials bash android studio flash-attention FTP 服务器 缓存 excel 部署 SSL 域名 skynet n8n 工作流 workflow 硬件架构 virtualenv mariadb shell embedding visualstudio 驱动开发 硬件工程 嵌入式实习 cnn Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 wireshark LORA NLP Trae IDE AI 原生集成开发环境 Trae AI Cline RustDesk自建服务器 rustdesk服务器 docker rustdesk 开机自启动 黑客技术 流式接口 URL 本地部署 api web pyqt Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer Kylin-Server 服务器安装 ue4 着色器 ue5 虚幻 Reactor C++ EasyConnect pyautogui 目标跟踪 OpenVINO 推理应用 open Euler dde Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 hadoop QQ bot Docker NFS deepseek r1 Google pay Apple pay opensearch helm 服务器主板 AI芯片 搜索引擎 ssrf 失效的访问控制 交互 WebRTC gpt openwrt ux 多线程 adobe elk Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket iftop 网络流量监控 xrdp 远程桌面 远程连接 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 游戏服务器 TrinityCore 魔兽世界 DNS elasticsearch make命令 makefile文件 tidb GLIBC pdf 群晖 文件分享 CLion iis VSCode 雨云服务器 游戏程序 环境迁移 服务器管理 配置教程 网站管理 图像处理 崖山数据库 YashanDB 并查集 leetcode VMware创建虚拟机 安卓 Ubuntu 24.04.1 轻量级服务器 redhat 服务器部署ai模型 sqlite3 Anolis nginx安装 linux插件下载 毕设 文件系统 路径解析 raid5数据恢复 磁盘阵列数据恢复 银河麒麟操作系统 国产化 远程过程调用 Windows环境 curl wget 直播推流 devops springboot svn 设置代理 实用教程 三级等保 服务器审计日志备份 MacOS录屏软件 mamba Vmamba kvm 无桌面 串口服务器 linux 命令 sed 命令 集成学习 集成测试 媒体 微信公众平台 risc-v 3d RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 bootstrap html nextjs react reactjs 软考 职场和发展 css 联想开天P90Z装win10 RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 SSH 服务 SSH Server OpenSSH Server ragflow webstorm 医疗APP开发 app开发 压力测试 CPU 主板 电源 网卡 网工 压测 ECS protobuf 序列化和反序列化 安装 minicom 串口调试工具 宕机切换 服务器宕机 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 强制清理 强制删除 mac废纸篓 idm ios DOIT 四博智联 xml kali 共享文件夹 iDRAC R720xd Ark-TS语言 minio docker命令大全 EMUI 回退 降级 升级 5G 3GPP 卫星通信 playbook 指令 thingsboard mq es jvm 磁盘监控 相差8小时 UTC 时间 netty dell服务器 go cmos 硬件 IIS .net core Hosting Bundle .NET Framework vs2022 XFS xfs文件系统损坏 I_O error 监控k8s 监控kubernetes 灵办AI file server http server web server 状态管理的 UDP 服务器 Arduino RTOS 服务器配置 生物信息学 VMware安装mocOS macOS系统安装 单元测试 功能测试 Docker Hub docker pull 镜像源 daemon.json gitea gcc 数据集 大模型面经 大模型学习 图形化界面 ruoyi WebUI DeepSeek V3 Invalid Host allowedHosts rdp 实验 王者荣耀 设备 GPU PCI-Express log4j 英语 UOS 统信操作系统 wsl2 wsl SysBench 基准测试 ecm bpm tensorflow 系统开发 binder 车载系统 framework 源码环境 trae 云电竞 云电脑 todesk GCC crosstool-ng 多层架构 解耦 LInux Erlang OTP gen_server 热代码交换 事务语义 MNN Qwen ip ui 音乐服务器 Navidrome 音流 Linux PID Minecraft DeepSeek行业应用 Heroku 网站部署 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 dba Dell HPE 联想 浪潮 freebsd Playwright 自动化测试 系统安全 分析解读 gaussdb linux上传下载 MQTT协议 消息服务器 代码 测试用例 asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 k8s集群资源管理 云原生开发 AI写作 AI作画 next.js 部署next.js 聊天室 docker run 数据卷挂载 交互模式 vmware 卡死 ocr 自动化编程 思科模拟器 思科 Cisco ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 剧本 muduo X11 Xming MacMini 迷你主机 mini Apple ros2 moveit 机器人运动 宠物 免费学习 宠物领养 宠物平台 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 蓝桥杯 小艺 Pura X AI代码编辑器 工业4.0 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 eNSP 网络规划 VLAN 企业网络 显示过滤器 ICMP Wireshark安装 弹性计算 计算虚拟化 弹性裸金属 linux环境变量 telnet 远程登录 Redis Desktop 安全威胁分析 rime vscode 1.86 网站搭建 serv00 jetty undertow Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 grafana DBeaver 数据仓库 kerberos 直流充电桩 充电桩 微信开放平台 微信公众号配置 IPMI VR手套 数据手套 动捕手套 动捕数据手套 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 裸金属服务器 弹性裸金属服务器 p2p 银河麒麟 kylin v10 麒麟 v10 输入法 SSH Xterminal av1 电视盒子 机顶盒ROM 魔百盒刷机 向日葵 Docker Compose docker-compose 数学建模 nac 802.1 portal matplotlib 监控k8s集群 集群内prometheus 游戏机 hugo TRAE Netty 即时通信 NIO SWAT 配置文件 服务管理 网络共享 vasp安装 查询数据库服务IP地址 SQL Server 分布式训练 语音识别 AutoDL 无人机 ROS 自动驾驶 历史版本 下载 聚类 etl xcode 程序 性能分析 服务网格 istio 序列化反序列化 Radius 虚拟局域网 npm Linux环境 qt项目 qt项目实战 qt教程 强化学习 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP prompt 网络结构图 yaml Ultralytics 可视化 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 交叉编译 华为机试 c/c++ 串口 vpn powerpoint 语法 大模型应用 银河麒麟高级服务器 外接硬盘 Kylin WSL2 上安装 Ubuntu 根服务器 OpenSSH clickhouse fd 文件描述符 IPv4 子网掩码 公网IP 私有IP 匿名管道 SSH 密钥生成 SSH 公钥 私钥 生成 主从复制 捆绑 链接 谷歌浏览器 youtube google gmail 用户缓冲区 模拟实现 frp 人工智能生成内容 做raid 装系统 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 laravel 支付 微信支付 开放平台 ArkTs ArkUI 图形渲染 rustdesk Mac内存不够用怎么办 CVE-2024-7347 ruby alias unalias 别名 游戏引擎 cocoapods 内网服务器 内网代理 内网通信 Linux的基础指令 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 seleium 需求分析 规格说明书 SenseVoice regedit 开机启动 版本 反向代理 双系统 GRUB引导 Linux技巧 yolov8 Kali 渗透 飞书 dns web3 tcp P2P HDLC 音乐库 飞牛 lio-sam SLAM uv glibc 考研 单一职责原则 webgl 软负载 AI-native Docker Desktop Ubuntu22.04 开发人员主页 trea idea asp.net大文件上传下载 CDN wps ubuntu24.04.1 spark HistoryServer Spark YARN jobhistory 私有化 Headless Linux IO模型 epoll linux安装配置 读写锁 AISphereButler 自定义客户端 SAS 办公自动化 自动化生成 pdf教程 rnn AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 zookeeper flink nfs arcgis 邮件APP 免费软件 大大通 第三代半导体 碳化硅 回显服务器 UDP的API使用 Windows ai工具 ldap armbian u-boot 键盘 seatunnel g++ g++13 移动魔百盒 GIS 遥感 WebGIS USB转串口 CH340 h.264 rag ragflow 源码启动 Ubuntu共享文件夹 共享目录 Linux共享文件夹 运维监控 项目部署到linux服务器 项目部署过程 ftp banner k8s二次开发 集群管理 IMX317 MIPI H265 VCU vscode1.86 1.86版本 ssh远程连接 SSE 迁移指南 LLM Web APP Streamlit 链表 big data cpp-httplib 推荐算法 MI300x 代理 DeepSeek r1 Open WebUI cd 目录切换 OpenManus iphone 宝塔 SRS 流媒体 直播 SSL证书 远程服务 sysctl.conf vm.nr_hugepages dash 正则表达式 miniapp 真机调试 调试 debug 断点 网络API请求调试方法 apt 国内源 Node-Red 编程工具 流编程 云服务 odoo 服务器动作 Server action x64 SIGSEGV xmm0 视觉检测 稳定性 看门狗 eclipse Typore 视频编解码 NLP模型 策略模式 单例模式 自学笔记 小米 澎湃OS Android bat 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 UOS1070e 代码托管服务 僵尸世界大战 游戏服务器搭建 信号处理 swoole langchain deep learning FTP服务器 v10 软件 小智AI服务端 xiaozhi ASR TTS 权限 串口驱动 CH341 uart 485 自动化任务管理 easyui 架构与原理 实习 多个客户端访问 IO多路复用 TCP相关API 相机 IDEA c yum源切换 更换国内yum源 tailscale derp derper 中转 bcompare Beyond Compare triton 模型分析 模拟器 教程 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors 互信 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 飞牛nas fnos Deepseek-R1 私有化部署 推理模型 cursor lua MCP server C/S windows日志 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 Unity Dedicated Server Host Client 无头主机 aarch64 编译安装 HPC vr 安防软件 端口测试 域名服务 DHCP 符号链接 配置 性能测试 嵌入式Linux IPC 免费域名 域名解析 常用命令 文本命令 目录命令 python3.11 DocFlow midjourney 李心怡 前后端分离 软件构建 虚拟显示器 Linux的权限 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 sentinel 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 中兴光猫 换光猫 网络桥接 自己换光猫 Jellyfin ros FunASR 佛山戴尔服务器维修 佛山三水服务器维修 TrueLicense 重启 排查 系统重启 日志 原因 影刀 #影刀RPA# Wi-Fi 超融合 干货分享 黑客工具 密码爆破 Claude Spring Security 技术共享 我的世界 我的世界联机 数码 AnythingLLM AnythingLLM安装 换源 Debian 我的世界服务器搭建 edge浏览器 DenseNet CrewAI 执法记录仪 智能安全帽 smarteye figma qemu libvirt 矩阵 线性代数 电商平台 服务器时间 WebVM 基础环境 流水线 脚本式流水线 ISO镜像作为本地源 GoogLeNet 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 deekseek can 线程池 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 本地部署AI大模型 xss 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 H3C USB网络共享 pppoe radius dns是什么 如何设置电脑dns dns应该如何设置 ssh漏洞 ssh9.9p2 CVE-2025-23419 信号 DIFY AI agent IM即时通讯 剪切板对通 HTML FORMAT saltstack RAGFlow 本地知识库部署 DeepSeek R1 模型 阿里云ECS lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 个人博客 Kylin OS uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 算力 社交电子 EMQX 通信协议 dity make HarmonyOS VS Code 显示管理器 lightdm gdm 实战案例 searxng Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 perf 阻塞队列 生产者消费者模型 服务器崩坏原因 AD 域管理 less 程序员创富 junit 游戏开发 上传视频文件到服务器 uniApp本地上传视频并预览 uniapp移动端h5网页 uniapp微信小程序上传视频 uniapp app端视频上传 uniapp uview组件库 产测工具框架 IMX6ULL 管理框架 rclone AList webdav fnOS 7z firewall openstack Xen cfssl composer 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 xshell termius iterm2 AD域 毕昇JDK neo4j 数据库开发 database minecraft Logstash 日志采集 keepalived HTTP 服务器控制 ESP32 DeepSeek sonoma 自动更新 备选 网站 调用 示例 银河麒麟桌面操作系统 MVS 海康威视相机 信创 信创终端 中科方德 Linux权限 权限命令 特殊权限 SVN Server tortoise svn proxy模式 合成模型 扩散模型 图像生成 鸿蒙开发 移动开发 HAProxy ABAP fast OpenHarmony 物联网开发 onlyoffice 在线office 磁盘清理 sequoiaDB jina 软链接 硬链接 镜像 存储维护 NetApp存储 EMC存储 PX4 KylinV10 麒麟操作系统 Vmware MacOS 容器技术 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 iperf3 带宽测试 进程优先级 调度队列 进程切换 ShenTong prometheus数据采集 prometheus数据模型 prometheus特点 autodl 开发 QT 5.12.12 QT开发环境 Ubuntu18.04 AI员工 虚拟现实 对比 工具 meld DiffMerge kernel 智能音箱 智能家居 项目部署 IMM 本地化部署 wpf 玩机技巧 软件分享 软件图标 su sudo chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 deployment daemonset statefulset cronjob Qwen2.5-VL vllm AI Agent 字节智能运维 MySql wsgiref Web 服务器网关接口 harmonyOS面试题 MDK 嵌入式开发工具 论文笔记 sublime text nosql java-rocketmq ardunio BLE 内网环境 代理服务器 嵌入式系统开发 端口聚合 windows11 openvpn server openvpn配置教程 centos安装openvpn 网卡的名称修改 eth0 ens33 极限编程 安装MySQL Linux find grep 钉钉 win服务器架设 windows server 粘包问题 System V共享内存 进程通信 HiCar CarLife+ CarPlay QT RK3588 docker desktop image 网络建设与运维 db 大模型部署 区块链 端口 查看 ss 查看显卡进程 fuser navicat ArtTS 知识图谱 xpath定位元素 Attention docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 word nvm whistle 企业网络规划 华为eNSP CentOS rpa nlp visual studio ranger MySQL8.0 欧标 OCPP 金仓数据库 2025 征文 数据库平替用金仓 抓包工具 防火墙 NAT转发 NAT Server Xinference hosts gnu 树莓派 VNC perl 多端开发 智慧分发 应用生态 鸿蒙OS Unity插件 iventoy VmWare OpenEuler css3 docker部署Python 云桌面 微软 AD域控 证书服务器 Python基础 Python教程 Python技巧 沙盒 浏览器自动化 元服务 应用上架 UDP HarmonyOS NEXT 原生鸿蒙 zip unzip 加解密 Yakit yaklang 计算生物学 生物信息 基因组 带外管理 fstab 流量运营 网络爬虫 top Linux top top命令详解 top命令重点 top常用参数 vu大文件秒传跨域报错cors ubuntu20.04 ros1 Noetic 20.04 apt 安装 多路转接 问题解决 ubuntu24 vivado24 react native kotlin ssh远程登录 虚幻引擎 virtualbox llama.cpp 浏览器开发 AI浏览器 CentOS Stream Sealos 论文阅读 性能调优 安全代理 WLAN rancher 状态模式 烟花代码 烟花 元旦 环境配置 云耀服务器 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 网络搭建 神州数码 神州数码云平台 云平台 PPI String Cytoscape CytoHubba grub 版本升级 扩容 SEO hexo ip协议 大模型推理 TCP协议 抗锯齿 拓扑图 milvus 健康医疗 互联网医院 软件卸载 系统清理 js 数字证书 签署证书 ubuntu 18.04 智能电视 MAC SecureCRT dock 加速 服务器正确解析请求体 IO MAVROS 四旋翼无人机 视频平台 录像 视频转发 视频流 MobaXterm 达梦 DM8 通信工程 毕业 conda配置 conda镜像源 Reactor反应堆 热榜 搭建个人相关服务器 接口优化 离线部署dify 像素流送api 像素流送UE4 像素流送卡顿 像素流送并发支持 macOS mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 解决方案 mcp服务器 client close 开机黑屏 vnc yum换源 西门子PLC 通讯 电视剧收视率分析与可视化平台 搜狗输入法 中文输入法 风扇控制软件 centos 7 React Next.js 开源框架 yolov5