• 【开源大模型部署】如何在服务器上部署开源大模型 GLM-4-9B-Chat 并应用到RAG应用?

【开源大模型部署】如何在服务器上部署开源大模型 GLM-4-9B-Chat 并应用到RAG应用?

2025-04-26 09:34:43 3 阅读

本地服务器部署开源大模型有一个前提,就是得有 GPU 显卡资源,在我下面的例子中我租用了 autodl 中的算力资源,具体是租用了一张消费级别的 RTX 3090 显卡。

环境配置

  • 操作系统及版本:ubuntu 22.04
  • CUDA 版本: 12.1
  • pytorch 版本:2.3.0+cu121

pip 换源和安装依赖包。

# 升级pip
python -m pip install --upgrade pip
# 更换 pypi 源加速库的安装
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

pip install fastapi==0.104.1
pip install uvicorn==0.24.0.post1
pip install requests==2.25.1
pip install modelscope==1.9.5
pip install transformers==4.42.4
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1
pip install tiktoken==0.7.0

这里要注意 transformers 的版本是 4.42.4

模型下载

GLM-4-9B-Chat 模型大小为 18 GB,下载模型大概需要 10~20 分钟。

由于后面我们要使用一个开源的 embedding 模型 BAAI/bge-base-zh-v1.5

所以使用以下代码下载 2 个模型文件到本地文件系统:

运行 python download.py

import torch
from modelscope import snapshot_download, AutoModel, AutoTokenizer
import os
model_dir = snapshot_download('ZhipuAI/glm-4-9b-chat', cache_dir='/root/autodl-tmp', revision='master')
embedding_model_dir = snapshot_download('BAAI/bge-base-zh-v1.5', cache_dir='/root/autodl-tmp', revision='master')


模型测试

GLM 开源模型官方给了一个 Demo 方便我们做测试,以下是代码:

运行 python trans_cli_demo.py

"""
This script creates a CLI demo with transformers backend for the glm-4-9b model,
allowing users to interact with the model through a command-line interface.

Usage:
- Run the script to start the CLI demo.
- Interact with the model by typing questions and receiving responses.

Note: The script includes a modification to handle markdown to plain text conversion,
ensuring that the CLI interface displays formatted text correctly.

If you use flash attention, you should install the flash-attn and  add attn_implementation="flash_attention_2" in model loading.
"""

import os
import torch
from threading import Thread
from transformers import AutoTokenizer, StoppingCriteria, StoppingCriteriaList, TextIteratorStreamer, AutoModelForCausalLM

MODEL_PATH = os.environ.get('MODEL_PATH', '/root/autodl-tmp/ZhipuAI/glm-4-9b-chat')


tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(
    MODEL_PATH,
    trust_remote_code=True,
    device_map="auto"
).eval()

class StopOnTokens(StoppingCriteria):
    def __call__(self, input_ids: torch.LongTensor, scores: torch.FloatTensor, **kwargs) -> bool:
        stop_ids = model.config.eos_token_id
        for stop_id in stop_ids:
            if input_ids[0][-1] == stop_id:
                return True
        return False

if __name__ == "__main__":
    history = []
    max_length = 8192
    top_p = 0.8
    temperature = 0.6
    stop = StopOnTokens()

    print("Welcome to the GLM-4-9B CLI chat. Type your messages below.")
    while True:
        user_input = input("
You: ")
        if user_input.lower() in ["exit", "quit"]:
            break
        history.append([user_input, ""])

        messages = []
        for idx, (user_msg, model_msg) in enumerate(history):
            if idx == len(history) - 1 and not model_msg:
                messages.append({"role": "user", "content": user_msg})
                break
            if user_msg:
                messages.append({"role": "user", "content": user_msg})
            if model_msg:
                messages.append({"role": "assistant", "content": model_msg})
        model_inputs = tokenizer.apply_chat_template(
            messages,
            add_generation_prompt=True,
            tokenize=True,
            return_tensors="pt"
        ).to(model.device)
        streamer = TextIteratorStreamer(
            tokenizer=tokenizer,
            timeout=60,
            skip_prompt=True,
            skip_special_tokens=True
        )
        generate_kwargs = {
            "input_ids": model_inputs,
            "streamer": streamer,
            "max_new_tokens": max_length,
            "do_sample": False,  # 改为 False
            "top_p": top_p,
            "temperature": temperature,
            "stopping_criteria": StoppingCriteriaList([stop]),
            "repetition_penalty": 1.2,
            "eos_token_id": model.config.eos_token_id,
        }
        try:
            t = Thread(target=model.generate, kwargs=generate_kwargs)
            t.start()
            print("GLM-4:", end="", flush=True)
            for new_token in streamer:
                if new_token:
                    print(new_token, end="", flush=True)
                    history[-1][1] += new_token
        except Exception as e:
            print(f"An error occurred: {e}")
            print(f"Error type: {type(e)}")
            import traceback
            traceback.print_exc()

        history[-1][1] = history[-1][1].strip()


注意以上代码和 GLM 官方提供的可能不太一样,因为官方的有的报错,所以我略为修改了一下。

直接运行 trans_cli_demo.py 就可以和模型交互了

利用 FastApi 调用模型

运行以下代码创建并启动 Api 服务:

运行 python api.py

from fastapi import FastAPI, Request
from transformers import AutoTokenizer, AutoModelForCausalLM
import uvicorn
import json
import datetime
import torch

# 设置设备参数
DEVICE = "cuda"  # 使用CUDA
DEVICE_ID = "0"  # CUDA设备ID,如果未设置则为空
CUDA_DEVICE = f"{DEVICE}:{DEVICE_ID}" if DEVICE_ID else DEVICE  # 组合CUDA设备信息

# 清理GPU内存函数
def torch_gc():
    if torch.cuda.is_available():  # 检查是否可用CUDA
        with torch.cuda.device(CUDA_DEVICE):  # 指定CUDA设备
            torch.cuda.empty_cache()  # 清空CUDA缓存
            torch.cuda.ipc_collect()  # 收集CUDA内存碎片

# 创建FastAPI应用
app = FastAPI()

# 处理POST请求的端点
@app.post("/")
async def create_item(request: Request):
    global model, tokenizer  # 声明全局变量以便在函数内部使用模型和分词器
    json_post_raw = await request.json()  # 获取POST请求的JSON数据
    json_post = json.dumps(json_post_raw)  # 将JSON数据转换为字符串
    json_post_list = json.loads(json_post)  # 将字符串转换为Python对象
    prompt = json_post_list.get('prompt')  # 获取请求中的提示
    history = json_post_list.get('history')  # 获取请求中的历史记录
    max_length = json_post_list.get('max_length', 2048)  # 获取请求中的最大长度
    top_p = json_post_list.get('top_p', 0.7)  # 获取请求中的top_p参数
    temperature = json_post_list.get('temperature', 0.95)  # 获取请求中的温度参数

    # 准备输入
    messages = []
    if history:
        for h in history:
            messages.append({"role": "user", "content": h[0]})
            messages.append({"role": "assistant", "content": h[1]})
    messages.append({"role": "user", "content": prompt})

    input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt").to(model.device)

    # 生成回复
    with torch.no_grad():
        outputs = model.generate(
            input_ids,
            max_new_tokens=max_length,
            do_sample=True,
            top_p=top_p,
            temperature=temperature,
        )

    response = tokenizer.decode(outputs[0][input_ids.shape[1]:], skip_special_tokens=True)

    now = datetime.datetime.now()  # 获取当前时间
    time = now.strftime("%Y-%m-%d %H:%M:%S")  # 格式化时间为字符串
    # 构建响应JSON
    answer = {
        "response": response,
        "history": history + [[prompt, response]],
        "status": 200,
        "time": time
    }
    # 构建日志信息
    log = "[" + time + "] " + '", prompt:"' + prompt + '", response:"' + repr(response) + '"'
    print(log)  # 打印日志
    torch_gc()  # 执行GPU内存清理
    return answer  # 返回响应

# 主函数入口
if __name__ == '__main__':
    # 加载预训练的分词器和模型
    tokenizer = AutoTokenizer.from_pretrained("/root/autodl-tmp/ZhipuAI/glm-4-9b-chat", trust_remote_code=True)
    model = AutoModelForCausalLM.from_pretrained(
        "/root/autodl-tmp/ZhipuAI/glm-4-9b-chat",
        torch_dtype=torch.bfloat16,
        trust_remote_code=True,
        device_map="auto",
    )
    model.eval()  # 设置模型为评估模式
    # 启动FastAPI应用
    # 用6006端口可以将autodl的端口映射到本地,从而在本地使用api
    uvicorn.run(app, host='0.0.0.0', port=6006, workers=1)  # 在指定端口和主机上启动应用


测试服务

curl -X POST "http://127.0.0.1:6006" 
     -H 'Content-Type: application/json' 
     -d '{"prompt": "你好", "history": []}'
     

利用 FastApi 同样可以测试模型的调用和交互。

注意,以上代码你可能会在网络上找到类似的,我在最开始使用那些代码的时候报各种错,原因大概包括模型和代码版本不兼容,组件库版本问题等。所以以上代码是经过我的修改之后可运行的代码

RAG

在之前的文章中我们通过 Ollama 在笔记本电脑上部署过大模型,通过大模型产品的 API 调用过大模型 ,唯独没有在服务器上私有化部署一个大模型。

前文我们已经在服务器上部署好了大模型 glm-4-9b-chat 这是一个拥有 90 亿参数的模型。下面我们介绍如何在 llamaindex 中调用它。

很简单,首先我们还是先自定义一个LLM ,参考以下代码:

import logging
from typing import Any, List, Optional
from llama_index.core.llms import (
    CustomLLM,
    CompletionResponse,
    CompletionResponseGen,
    LLMMetadata,
)
from llama_index.core.llms.callbacks import llm_completion_callback
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

# 设置日志
logging.basicConfig(level=logging.DEBUG)
logger = logging.getLogger(__name__)

class LocalGLM4(CustomLLM):

    context_window: int = 8192  # 默认上下文窗口大小
    num_output: int = 2048  # 默认输出的token数量
    model_name: str = "glm-4-9b-chat"  # 模型名称
    tokenizer: object = None  # 分词器
    model: object = None  # 模型

    def __init__(self, pretrained_model_name_or_path: str):
        super().__init__()

        # GPU方式加载模型
        self.tokenizer = AutoTokenizer.from_pretrained(
            pretrained_model_name_or_path, trust_remote_code=True
        )
        self.model = AutoModelForCausalLM.from_pretrained(
            pretrained_model_name_or_path,
            torch_dtype=torch.float16,  # 或者使用 torch.bfloat16
            low_cpu_mem_usage=True,
            trust_remote_code=True,
            device_map="auto",
        )

        # CPU方式加载模型
        # self.tokenizer = AutoTokenizer.from_pretrained(pretrained_model_name_or_path, device_map="cpu", trust_remote_code=True)
        # self.model = AutoModelForCausalLM.from_pretrained(pretrained_model_name_or_path, device_map="cpu", trust_remote_code=True)
        # self.model = self.model.float()

        # 尝试获取模型的实际上下文窗口大小
        if hasattr(self.model.config, 'seq_length'):
            self.context_window = self.model.config.seq_length
        elif hasattr(self.model.config, 'max_position_embeddings'):
            self.context_window = self.model.config.max_position_embeddings
        logger.info(f"Using context window size: {self.context_window}")

    @property
    def metadata(self) -> LLMMetadata:
        """Get LLM metadata."""
        # 得到LLM的元数据
        return LLMMetadata(
            context_window=self.context_window,
            num_output=self.num_output,
            model_name=self.model_name,
        )

    @llm_completion_callback()
    def complete(self, prompt: str, **kwargs: Any) -> CompletionResponse:
        # 完成函数
        print("完成函数")

        inputs = self.tokenizer.encode(prompt, return_tensors="pt").cuda()  # GPU方式
        # inputs = self.tokenizer.encode(prompt, return_tensors='pt')  # CPU方式
        outputs = self.model.generate(inputs, max_length=self.num_output)
        response = self.tokenizer.decode(outputs[0])
        return CompletionResponse(text=response)

    @llm_completion_callback()
    def stream_complete(self, prompt: str, **kwargs: Any) -> CompletionResponseGen:
        # 流式完成函数
        print("流式完成函数")

        inputs = self.tokenizer.encode(prompt, return_tensors="pt").cuda()  # GPU方式
        # inputs = self.tokenizer.encode(prompt, return_tensors='pt')  # CPU方式
        outputs = self.model.generate(inputs, max_length=self.num_output)
        response = self.tokenizer.decode(outputs[0])
        for token in response:
            yield CompletionResponse(text=token, delta=token)


剩下的步骤跟之前的调用方式、代码编程模型几乎没有任何区别:

    embed_model_path = "/root/autodl-tmp/BAAI/bge-base-zh-v1.5"
    pretrained_model_name_or_path = r"/root/autodl-tmp/ZhipuAI/glm-4-9b-chat"

    # 设置LLM和嵌入模型
    logger.info("Setting up LLM and embedding model")
    Settings.llm = LocalGLM4(pretrained_model_name_or_path)
    Settings.embed_model = HuggingFaceEmbedding(
        model_name=f"{embed_model_path}", device="cuda"
    )

    # 从指定目录加载文档数据
    logger.info("Loading documents")
    documents = SimpleDirectoryReader(input_files=["./data/sample.txt"]).load_data()

    # 创建索引和查询引擎
    logger.info("Creating index and query engine")
    index = VectorStoreIndex.from_documents(documents)
    query_engine = index.as_query_engine(streaming=False)

    # 执行查询
    logger.info("Executing query")
    response = query_engine.query(query)

    # 处理并输出响应
    if hasattr(response, "response_gen"):
        # 流式输出
        for text in response.response_gen:
            print(text, end="", flush=True)
            sys.stdout.flush()  # 确保立即输出
    else:
        # 非流式输出
        print(response.response, end="", flush=True)

相关代码可以在这里查看:github.com/xiaobox/lla…

总结

利用租用的 GPU 资源部署了开源大模型 glm-4-9b-chat ,通过熟悉部署方式和流程,你可以照猫画虎部署其他开源模型。接着我们将之前 RAG 项目中对LLM的调用改为服务器部署的本地开源模型,实现了模型和调用的私有化。希望这篇文章能够帮助到有类似需求的朋友。

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

三、LLM大模型系列视频教程

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

本文地址:https://www.vps345.com/1714.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 python MCP javascript 前端 chrome edge RTSP xop RTP RTSPServer 推流 视频 ssh 阿里云 网络 网络安全 网络协议 llama 算法 opencv 自然语言处理 神经网络 语言模型 进程 操作系统 进程控制 Ubuntu ubuntu deepseek Ollama 模型联网 API CherryStudio flutter harmonyos 华为 开发语言 typescript 计算机网络 数据库 centos oracle 关系型 安全 分布式 深度学习 YOLO 目标检测 计算机视觉 人工智能 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 numpy android 鸿蒙 java 面试 性能优化 jdk intellij-idea 架构 cpu 内存 实时 使用 golang Flask FastAPI Waitress Gunicorn uWSGI Uvicorn Windsurf GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 react.js 前端面试题 node.js 持续部署 docker 容器 jenkins tcp/ip windows 微服务 springcloud pytorch transformer 科技 ai 个人开发 vim ide c++ 物联网 iot udp unity macos 计算机外设 电脑 mac 软件需求 websocket adb uni-app 产品经理 agi microsoft ssl ollama llm chatgpt 大模型 llama3 Chatglm 开源大模型 php 深度优先 图论 并集查找 换根法 树上倍增 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 Dell R750XS ffmpeg 音视频 pycharm vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 rust http 机器学习 spring boot 后端 tomcat LDAP HCIE 数通 笔记 maven intellij idea C 环境变量 进程地址空间 nginx 监控 自动化运维 智能路由器 外网访问 内网穿透 端口映射 运维开发 json html5 firefox WSL win11 无法解析服务器的名称或地址 django flask web3.py Qwen2.5-coder 离线部署 前端框架 pip conda jmeter 软件测试 DeepSeek-R1 API接口 sqlserver live555 rtsp rtp Hyper-V WinRM TrustedHosts web安全 Kali Linux 黑客 渗透测试 信息收集 github AI Agent vue3 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 asm 创意 社区 直播推流 jar 学习方法 程序人生 相差8小时 UTC 时间 Java 自动化 多进程 1024程序员节 远程 命令 执行 sshpass 操作 gitee C语言 firewalld svn 经验分享 串口服务器 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 嵌入式硬件 单片机 状态管理的 UDP 服务器 Arduino RTOS ecmascript KVM 驱动开发 mcu kvm 无桌面 命令行 git gitea 媒体 微信公众平台 医疗APP开发 app开发 bootstrap html redis web Socket YOLOv8 NPU Atlas800 A300I pro asi_bench vscode jupyter 微信小程序 小程序 负载均衡 matlab 统信UOS 麒麟 bonding 链路聚合 压力测试 mongodb ecm bpm mybatis c语言 宕机切换 服务器宕机 protobuf 序列化和反序列化 安装 虚拟机 VMware qt stm32项目 stm32 cuda cudnn anaconda zabbix 强制清理 强制删除 mac废纸篓 c# idm ddos prometheus iDRAC R720xd freebsd debian PVE 嵌入式 linux驱动开发 arm开发 zotero WebDAV 同步失败 代理模式 AIGC 远程桌面 fpga开发 ansible playbook 编辑器 鸿蒙系统 XFS xfs文件系统损坏 I_O error es jvm 测试工具 测试用例 功能测试 AI编程 部署 服务器配置 华为云 指令 rabbitmq dell服务器 go 硬件架构 系统架构 Linux 进程信号 IIS .net core Hosting Bundle .NET Framework vs2022 跨域 学习 X11 Xming wsl2 wsl 集成学习 集成测试 ollama下载加速 生物信息学 开源 curl wget Samba NAS openEuler DeepSeek 服务器繁忙 VMware安装mocOS macOS系统安装 GCC crosstool-ng 设置代理 实用教程 minio sql KingBase RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 云原生 devops springboot mysql 微信 微信分享 Image wxopensdk virtualenv jetty undertow UOS 统信操作系统 yum SSH 服务 SSH Server OpenSSH Server oceanbase rc.local 开机自启 systemd 系统开发 binder 车载系统 framework 源码环境 音乐服务器 Navidrome 音流 minicom 串口调试工具 蓝耘科技 元生代平台工作流 ComfyUI ping++ kylin 智能手机 Termux SSH 远程连接 MQTT协议 消息服务器 代码 DeepSeek行业应用 Heroku 网站部署 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 ESP32 ESXi Dell HPE 联想 浪潮 excel ruoyi 温湿度数据上传到服务器 Arduino HTTP java-ee tcpdump docker命令大全 IIS服务器 IIS性能 日志监控 react next.js 部署next.js asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 nuxt3 实时音视频 bash HarmonyOS Next 银河麒麟服务器操作系统 系统激活 剧本 VR手套 数据手套 动捕手套 动捕数据手套 命名管道 客户端与服务端通信 博客 elasticsearch express Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 av1 电视盒子 机顶盒ROM 魔百盒刷机 3d 数学建模 LLM 大模型面经 职场和发展 Deepseek 大模型学习 漏洞 微信开放平台 微信公众号配置 .net Redis Desktop kubernetes k8s 安全威胁分析 WebUI DeepSeek V3 AI大模型 vscode 1.86 IPMI unix 爬虫 数据集 gitlab 豆瓣 追剧助手 迅雷 nas unity3d 银河麒麟 kylin v10 麒麟 v10 spring ci/cd 信息与通信 网络穿透 云服务器 Nuxt.js Xterminal 低代码 ArcTS 登录 ArcUI GridItem 向日葵 CPU 主板 电源 网卡 okhttp CORS Cursor apache 远程工作 VMware安装Ubuntu Ubuntu安装k8s safari Mac 系统 大模型微调 腾讯云 WSL2 虚拟化 半虚拟化 硬件虚拟化 Hypervisor sqlite dubbo MS Materials .netcore gateway Clion Nova ResharperC++引擎 Centos7 远程开发 code-server MQTT mosquitto 消息队列 pygame 小游戏 五子棋 k8s集群资源管理 云原生开发 数据库系统 软件工程 pillow shell kamailio sip VoIP 大数据 大数据平台 selete 高级IO echarts 信息可视化 数据分析 网页设计 统信 国产操作系统 虚拟机安装 僵尸进程 eNSP 网络规划 VLAN 企业网络 wireshark 显示过滤器 ICMP Wireshark安装 W5500 OLED u8g2 TCP服务器 linux环境变量 mysql离线安装 ubuntu22.04 mysql8.0 混合开发 环境安装 JDK DevEco Studio centos-root /dev/mapper yum clean all df -h / du -sh 基础入门 编程 pyqt k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 threejs 3D ux 多线程 spring cloud Dify Docker Compose docker compose docker-compose WebRTC gpt 缓存 华为od OD机试真题 华为OD机试真题 服务器能耗统计 传统数据库升级 银行 TRAE webrtc oneapi 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 dify pdf 多线程服务器 Linux网络编程 android studio Ubuntu Server Ubuntu 22.04.5 springsecurity6 oauth2 授权服务器 token sas FTP 服务器 RAID RAID技术 磁盘 存储 postgresql list 数据结构 raid5数据恢复 磁盘阵列数据恢复 企业微信 Linux24.04 deepin visualstudio Reactor 设计模式 C++ Trae AI代码编辑器 rocketmq NFS IDE AI 原生集成开发环境 Trae AI EasyConnect Cline nextjs reactjs 腾讯云大模型知识引擎 https 流式接口 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 Kylin-Server 服务器安装 Google pay Apple pay open Euler dde 交互 hadoop Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 搜索引擎 ssrf 失效的访问控制 openwrt 文件系统 路径解析 springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 代码调试 ipdb YOLOv12 NPS 雨云服务器 雨云 gpu算力 能力提升 面试宝典 技术 IT信息化 环境迁移 源码剖析 rtsp实现步骤 流媒体开发 Ubuntu 24.04.1 轻量级服务器 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 CH340 串口驱动 CH341 uart 485 毕设 midjourney AI写作 自学笔记 小米 澎湃OS Android prompt sqlite3 netty 代码托管服务 RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 IO模型 远程控制 远程看看 远程协助 软负载 rpc 远程过程调用 Windows环境 visual studio code 中间件 佛山戴尔服务器维修 佛山三水服务器维修 ipython 交叉编译 rnn 模拟器 教程 ui 三级等保 服务器审计日志备份 GPU FTP服务器 eureka n8n 工作流 workflow risc-v arm wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 计算机 干货分享 黑客工具 密码爆破 C# MQTTS 双向认证 emqx 软考 Linux环境 gcc g++ g++13 Cookie css 联想开天P90Z装win10 Invalid Host allowedHosts vue 边缘计算 gradle kali 共享文件夹 数据挖掘 camera Arduino 电子信息 执法记录仪 智能安全帽 smarteye Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer tailscale derp derper 中转 系统安全 triton 模型分析 矩阵 线性代数 电商平台 ue4 着色器 ue5 虚幻 JAVA IDEA EMUI 回退 降级 升级 互信 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 目标跟踪 OpenVINO 推理应用 linux安装配置 开机自启动 lua 自动驾驶 mamba Vmamba QQ 机器人 bot Docker 线程 软件构建 课程设计 cursor MCP server C/S windows日志 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 游戏服务器 Minecraft DOIT 四博智联 游戏程序 ios 灵办AI 宝塔面板 安防软件 链表 xml H3C 宝塔 Ark-TS语言 kafka DNS 单元测试 selenium DeepSeek r1 Open WebUI cd 目录切换 thingsboard 音乐库 群晖 飞牛 cmos 硬件 磁盘监控 kind 图形化界面 eclipse 图像处理 游戏引擎 前后端分离 策略模式 单例模式 华为认证 网络工程师 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 虚拟显示器 云服务 CLion FunASR ASR file server http server web server 重启 排查 系统重启 日志 原因 大语言模型 tensorflow trae uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 bug 多层架构 解耦 Wi-Fi Spring Security Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 mariadb linux 命令 sed 命令 rdp 实验 技术共享 王者荣耀 SysBench 基准测试 easyui langchain 交换机 设备 PCI-Express 阻塞队列 生产者消费者模型 服务器崩坏原因 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 ragflow 权限 ISO镜像作为本地源 分析解读 npm 云电竞 云电脑 todesk 自动化任务管理 yum源切换 更换国内yum源 Erlang OTP gen_server 热代码交换 事务语义 MNN Qwen LInux ip 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 fd 文件描述符 飞牛nas fnos Linux PID 银河麒麟桌面操作系统 Kylin OS 国产化 xss 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 游戏机 pppoe radius hugo MacMini 迷你主机 mini Apple Netty 即时通信 NIO 宠物 毕业设计 免费学习 宠物领养 宠物平台 SWAT 配置文件 服务管理 网络共享 gaussdb 小艺 Pura X saltstack 匿名管道 AI作画 聊天室 5G 3GPP 卫星通信 DocFlow mq ocr micropython esp32 mqtt AI agent 思科模拟器 思科 Cisco r语言 数据可视化 ip命令 新增网卡 新增IP 启动网卡 蓝桥杯 算力 Radius googlecloud qt项目 qt项目实战 qt教程 muduo 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 服务器管理 配置教程 网站管理 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 其他 clickhouse 客户端 社交电子 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 7z EMQX 通信协议 VS Code Docker Hub docker pull 镜像源 daemon.json hibernate 输入法 弹性计算 计算虚拟化 弹性裸金属 工业4.0 监控k8s 监控kubernetes windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 网络结构图 根服务器 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? AnythingLLM AnythingLLM安装 显示管理器 lightdm gdm 远程登录 telnet 同步 备份 建站 laravel grafana 小智AI服务端 xiaozhi TTS 直流充电桩 充电桩 keepalived 实习 junit Claude AD 域管理 网站搭建 serv00 chfs ubuntu 16.04 c 裸金属服务器 弹性裸金属服务器 qemu libvirt p2p WebVM chrome devtools chromedriver efficientVIT YOLOv8替换主干网络 TOLOv8 火绒安全 xcode cnn DenseNet arkUI 服务网格 istio CrewAI 需求分析 规格说明书 备选 网站 api 调用 示例 AD域 反向代理 致远OA OA服务器 服务器磁盘扩容 并查集 leetcode matplotlib Linux的基础指令 can 线程池 dns GoogLeNet 程序员 大模型入门 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 HTTP 服务器控制 ESP32 DeepSeek aws 我的世界服务器搭建 minecraft USB网络共享 监控k8s集群 集群内prometheus vasp安装 智能硬件 查询数据库服务IP地址 SQL Server AutoDL 无人机 语法 dba linux上传下载 历史版本 下载 etl sdkman 端口测试 田俊楠 docker run 数据卷挂载 交互模式 vmware 卡死 自动化编程 openssl 密码学 业界资讯 鲲鹏 模拟退火算法 ArkTs ArkUI nvidia ssh漏洞 ssh9.9p2 CVE-2025-23419 黑苹果 pgpool 技能大赛 华为机试 Python c/c++ 串口 ros2 moveit 机器人运动 AISphereButler alias unalias 别名 自定义客户端 SAS outlook 银河麒麟高级服务器 外接硬盘 Kylin ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 flink Jellyfin 框架搭建 回显服务器 UDP的API使用 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 armbian u-boot 大模型教程 模拟实现 remote-ssh 源码 支付 微信支付 开放平台 ukui 麒麟kylinos openeuler rust腐蚀 regedit 开机启动 perf 超融合 SenseVoice hive DBeaver 数据仓库 kerberos 京东云 RustDesk自建服务器 rustdesk服务器 docker rustdesk 网络用户购物行为分析可视化平台 大数据毕业设计 ftp VPS Hive环境搭建 hive3环境 Hive远程模式 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 vscode1.86 1.86版本 ssh远程连接 vSphere vCenter 软件定义数据中心 sddc openstack Xen RTMP 应用层 版本 big data flash-attention 报错 昇腾 npu opensearch helm 飞书 孤岛惊魂4 uniapp 恒源云 tcp sysctl.conf vm.nr_hugepages adobe LLMs epoll 单一职责原则 elk Logstash 日志采集 网络编程 聊天服务器 套接字 TCP Playwright 自动化测试 IPMITOOL BMC 硬件管理 opcua opcda KEPServer安装 open webui nac 802.1 portal TrinityCore 魔兽世界 ROS asp.net大文件上传下载 Ubuntu22.04 开发人员主页 iis VSCode 移动云 可信计算技术 XCC Lenovo 移动魔百盒 spark HistoryServer Spark YARN jobhistory 繁忙 解决办法 替代网站 汇总推荐 AI推理 CDN Headless Linux USB转串口 飞牛NAS 飞牛OS MacBook Pro nfs 服务器部署ai模型 embedding SSL 域名 rsyslog Anolis nginx安装 linux插件下载 政务 分布式系统 监控运维 Prometheus Grafana ruby yaml Ultralytics 可视化 skynet 僵尸世界大战 游戏服务器搭建 实时互动 ceph 银河麒麟操作系统 安全架构 zookeeper 阿里云ECS 硬件工程 嵌入式实习 LORA NLP 网络攻击模型 大模型应用 v10 软件 ldap 深度求索 私域 知识库 键盘 gpt-3 文心一言 etcd 数据安全 RBAC frp 金融 黑客技术 seatunnel iphone URL 本地部署 架构与原理 iftop 网络流量监控 序列化反序列化 多个客户端访问 IO多路复用 TCP相关API IPv4 子网掩码 公网IP 私有IP make命令 makefile文件 SSE 服务器主板 AI芯片 LLM Web APP Streamlit 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors 网工 压测 ECS MI300x 安卓 双系统 GRUB引导 Linux技巧 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 xrdp string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap Unity Dedicated Server Host Client 无头主机 开发环境 SSL证书 视觉检测 文件分享 VMware创建虚拟机 性能测试 MacOS录屏软件 odoo 服务器动作 Server action tidb GLIBC 常用命令 文本命令 目录命令 崖山数据库 YashanDB 视频编解码 glibc redhat wps 信创 信创终端 中科方德 ubuntu24.04.1 查看显卡进程 fuser ArtTS css3 AI-native Docker Desktop HiCar CarLife+ CarPlay QT RK3588 sentinel yolov8 知识图谱 Node-Red 编程工具 流编程 读写锁 AI Agent 字节智能运维 办公自动化 自动化生成 pdf教程 bcompare Beyond Compare swoole fast 端口 查看 ss deployment daemonset statefulset cronjob CentOS 加解密 Yakit yaklang arcgis rag ragflow 源码启动 运维监控 webstorm 嵌入式Linux IPC word 服务器时间 流量运营 IMX317 MIPI H265 VCU pyautogui KylinV10 麒麟操作系统 Vmware ShenTong 多端开发 智慧分发 应用生态 鸿蒙OS Linux find grep 钉钉 aarch64 编译安装 HPC 代理 onlyoffice apt EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 中兴光猫 换光猫 网络桥接 自己换光猫 iBMC UltraISO 程序 性能分析 OpenManus 树莓派 VNC 抓包工具 域名服务 DHCP 符号链接 配置 docker desktop image 元服务 应用上架 换源 国内源 Debian 网络建设与运维 Unity插件 x64 SIGSEGV xmm0 iventoy VmWare OpenEuler edge浏览器 miniapp 真机调试 调试 debug 断点 网络API请求调试方法 uv ros 云桌面 微软 AD域控 证书服务器 个人博客 xpath定位元素 bat RAGFlow docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 我的世界 我的世界联机 数码 强化学习 deekseek top Linux top top命令详解 top命令重点 top常用参数 UDP Ubuntu共享文件夹 共享目录 Linux共享文件夹 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK Windows AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 ubuntu20.04 ros1 Noetic 20.04 apt 安装 带外管理 nlp grub 版本升级 扩容 fstab 相机 游戏开发 企业网络规划 华为eNSP 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 本地部署AI大模型 大模型推理 信号 log4j 迁移指南 rustdesk react native llama.cpp Xinference vr win服务器架设 windows server dns是什么 如何设置电脑dns dns应该如何设置 免费域名 域名解析 分布式训练 ubuntu24 vivado24 李心怡 状态模式 Linux的权限 程序员创富 perl SVN Server tortoise svn Python基础 Python教程 Python技巧 WLAN UOS1070e deep learning HAProxy 影刀 #影刀RPA# HarmonyOS 物联网开发 neo4j 数据库开发 database 软链接 硬链接 hexo idea sonoma 自动更新 SEO xshell termius iterm2 figma rime 基础环境 流水线 脚本式流水线 rclone AList webdav fnOS 内网服务器 内网代理 内网通信 visual studio 金仓数据库 2025 征文 数据库平替用金仓 毕昇JDK 软件卸载 系统清理 合成模型 扩散模型 图像生成 鸿蒙开发 移动开发 vpn 信号处理 kotlin 语音识别 ssh远程登录 OpenHarmony 问题解决 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 sequoiaDB wpf 捆绑 链接 谷歌浏览器 youtube google gmail 图形渲染 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 浏览器开发 AI浏览器 MacOS ABAP Mac内存不够用怎么办 烟花代码 烟花 元旦 性能调优 安全代理 本地知识库部署 DeepSeek R1 模型 wsgiref Web 服务器网关接口 prometheus数据采集 prometheus数据模型 prometheus特点 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 dity make 存储维护 NetApp存储 EMC存储 TrueLicense Kali 做raid 装系统 用户缓冲区 ardunio BLE 磁盘清理 PX4 powerpoint 环境配置 人工智能生成内容 考研 镜像 在线office 项目部署到linux服务器 项目部署过程 CVE-2024-7347 实战案例 webgl cocoapods searxng PPI String Cytoscape CytoHubba Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 autodl firewall 玩机技巧 软件分享 软件图标 cfssl TCP协议 su sudo 抗锯齿 拓扑图 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 私有化 渗透 产测工具框架 IMX6ULL 管理框架 web3 P2P HDLC MySql Typore IMM milvus 智能音箱 智能家居 QT 5.12.12 QT开发环境 Ubuntu18.04 健康医疗 互联网医院 harmonyOS面试题 python3.11 邮件APP 免费软件 聚类 trea MVS 海康威视相机 proxy模式 IM即时通讯 剪切板对通 HTML FORMAT 虚拟局域网 大大通 第三代半导体 碳化硅 显卡驱动 deepseek r1 ai工具 java-rocketmq OpenSSH GIS 遥感 WebGIS 粘包问题 内网环境 嵌入式系统开发 h.264 代理服务器 banner 容器技术 jina SSH 密钥生成 SSH 公钥 私钥 生成 主从复制 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 iperf3 带宽测试 网卡的名称修改 eth0 ens33 less cpp-httplib seleium composer docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos Deepseek-R1 私有化部署 推理模型 远程服务 navicat 对比 工具 meld DiffMerge SRS 流媒体 直播 开发 防火墙 NAT转发 NAT Server dash 正则表达式 Attention db lio-sam SLAM nvm whistle 搭建个人相关服务器 macOS rpa gnu ranger MySQL8.0 欧标 OCPP mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 端口聚合 windows11 System V共享内存 进程通信 沙盒 hosts IO 热榜 NLP模型 接口优化 k8s二次开发 MDK 嵌入式开发工具 论文笔记 sublime text 离线部署dify Qwen2.5-VL vllm 搜狗输入法 中文输入法 HarmonyOS NEXT 原生鸿蒙 风扇控制软件 推荐算法 解决方案 yolov5 CentOS Stream 云耀服务器 docker部署Python yum换源 网络爬虫 开机黑屏 js 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 数字证书 签署证书 虚幻引擎 virtualbox Sealos 论文阅读 智能电视 网络搭建 神州数码 神州数码云平台 云平台 本地化部署 AI员工 多路转接 服务器正确解析请求体 kernel 西门子PLC 通讯 项目部署 dock 加速 nosql 极限编程 MobaXterm 达梦 DM8 conda配置 conda镜像源 大模型部署 稳定性 看门狗