• 【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器

【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器

2025-04-25 18:18:01 2 阅读

系列篇章💥

No.文章
01【DeepSeek应用实践】DeepSeek接入Word、WPS方法详解:无需代码,轻松实现智能办公助手功能
02【DeepSeek应用实践】通义灵码 + DeepSeek:AI 编程助手的实战指南
03【DeepSeek应用实践】Cline集成DeepSeek:开源AI编程助手,终端与Web开发的超强助力
04【DeepSeek开发入门】DeepSeek API 开发初体验
05【DeepSeek开发入门】DeepSeek API高级开发指南(推理与多轮对话机器人实践)
06【DeepSeek开发入门】Function Calling 函数功能应用实战指南
07【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:本地部署与API服务快速上手
08【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:Web聊天机器人部署指南
09【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器
10【DeepSeek部署实战】基于Ollama快速部署DeepSeek-R1系列模型实战指南(Linux)
11【DeepSeek部署实战】基于Ollama+Chatbox零成本部署DeepSeek-R1系列模型攻略(Windows)
12【DeepSeek开发实战】DeepSeek-R1-Distill-Qwen与LangChain的本地大模型应用开发指南

目录

  • 系列篇章💥
  • 前言
  • 一、vLLM框架特性解析
    • 1、高效内存管理
    • 2、吞吐量王者
    • 3、无缝生态集成
    • 4、分布式推理支持
    • 5、开源社区驱动
  • 二、环境配置指南
    • 1、基础环境要求
    • 2、安装相关依赖
    • 3、模型文件下载
  • 三、模型推理实践
    • 1、导入相关依赖包
    • 2、定义LLM处理函数
    • 3、指定模型地址&定义消息
    • 4、获取输出结果
  • 四、OpenAI API服务部署测试
    • 1、发布OpenAI API服务
    • 2、Completions API调用
    • 3、Chat Completions API调用
    • 4、命令行调用OpenAI API接口
  • 五、最佳实践建议
    • 1. 显存优化
    • 2. 温度参数
  • 总结


前言

大语言模型的落地应用离不开高效推理框架的支持,vLLM以其卓越的性能在众多框架中脱颖而出。本文将带你深入探索如何使用vLLM框架部署DeepSeek-R1-Distill-Qwen大语言模型,无论是深度学习新手还是有经验的开发者,都能从中获取实用的知识和技能。

一、vLLM框架特性解析

1、高效内存管理

在大模型推理中,内存管理至关重要。vLLM独创的PagedAttention算法,如同为显存空间安排了一位智能管家。它借鉴操作系统虚拟内存管理机制,实现了KV缓存的动态分页管理。这意味着,当模型处理大量数据时,不再需要一次性占用连续的显存空间,而是像拼积木一样,动态分配所需的显存块。在实际应用中,相较于传统方案,vLLM的内存利用率提升高达24倍,这使得在有限的显存条件下,也能高效运行大模型,大大降低了硬件门槛。

2、吞吐量王者

vLLM在推理速度上堪称王者。它支持连续批处理(Continuous Batching)和异步推理,就像一位高效的流水线工人,在A100 GPU上实测,吞吐量可达HuggingFace Transformers的24倍。在处理长文本生成任务时,这种优势更为显著。连续批处理技术让vLLM无需等待前一批次推理完成,就能马不停蹄地接收新任务,充分榨干GPU的计算资源;异步推理则进一步提升了系统的并发处理能力,让多个推理任务并行执行,大大提高了整体处理效率。

3、无缝生态集成

生态兼容性是vLLM的又一亮点。它与HuggingFace模型库完美兼容,支持超过50种主流大模型,这使得开发者可以轻松将vLLM融入现有的基于HuggingFace的开发流程中。同时,vLLM通过OpenAI API兼容设计,为现有基于ChatGPT的应用提供了便捷的迁移路径。开发者无需大规模修改代码,就能将应用迁移到使用vLLM框架的DeepSeek-R1-Distill-Qwen大语言模型上,极大地降低了技术迁移成本。

4、分布式推理支持

对于大规模推理任务,vLLM采用张量并行(Tensor Parallelism)技术,支持多GPU分布式推理。在4*A100的环境下实测,推理速度提升3.8倍。这就好比将多个小引擎组合成一个超级引擎,充分利用多块GPU的计算能力,实现大规模模型的快速推理,满足企业级应用对高并发、低延迟的需求。无论是在线服务还是离线分析场景,分布式推理都能显著提升系统性能和响应速度。

5、开源社区驱动

vLLM拥有活跃的开源社区,在GitHub上星标数已突破3.9万,官方Discord社区日活开发者超过500人。社区成员们积极交流经验、分享代码、提出建议,共同推动vLLM的发展。同时,vLLM持续保持每周3 - 5次的版本迭代更新,不断优化性能、修复漏洞、增加新功能,让开发者能够始终使用到最前沿的技术。

二、环境配置指南

1、基础环境要求

为了高效部署 DeepSeek-R1-Distill-Qwen,推荐使用 Ubuntu 22.04 LTS 操作系统、Python 3.12 环境、CUDA 12.1 与 PyTorch 2.3.0,并配备至少 24GB 显存的 NVIDIA GPU,以确保模型推理的高性能和稳定性。

2、安装相关依赖

# 配置清华镜像源加速下载
python -m pip install --upgrade pip
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

# 安装核心依赖包
pip install modelscope==1.22.3
pip install openai==1.61.0
pip install vllm==0.7.1

首先,将pip升级到最新版本,确保能使用最新的功能和特性。然后,将pip源配置为清华大学的镜像源,这样在下载依赖包时能显著提高下载速度,减少等待时间。接下来,依次安装核心依赖库。modelscope库提供灵活的模型下载和管理功能,方便获取DeepSeek-R1-Distill-Qwen模型;openai库用于与vLLM的OpenAI API兼容接口进行交互;vllm库则是本次部署的核心框架,实现高效的模型推理。

3、模型文件下载

from modelscope import snapshot_download
# 下载预训练模型并指定缓存路径
model_dir = snapshot_download('deepseek-ai/DeepSeek-R1-Distill-Qwen-7B', cache_dir='/root/autodl-tmp', revision='master')

这段代码用modelscope库的snapshot_download函数下载模型。deepseek-ai/DeepSeek-R1-Distill-Qwen-7B是模型在平台上的名字,cache_dir是你要把模型存到哪里,你可以自己改,revision='master’表示下最新版本。

三、模型推理实践

1、导入相关依赖包

from vllm import LLM, SamplingParams
from transformers import AutoTokenizer
import os
import json

# 自动下载模型时,指定使用modelscope; 否则,会从HuggingFace下载
os.environ['VLLM_USE_MODELSCOPE']='True'

2、定义LLM处理函数

def get_completion(prompts, model, tokenizer=None, max_tokens=8192, temperature=0.6, top_p=0.95, max_model_len=2048):
    stop_token_ids = [151329, 151336, 151338]
    # 创建采样参数。temperature 控制生成文本的多样性,top_p 控制核心采样的概率
    sampling_params = SamplingParams(temperature=temperature, top_p=top_p, max_tokens=max_tokens, stop_token_ids=stop_token_ids)
    # 初始化 vLLM 推理引擎
    llm = LLM(model=model, tokenizer=tokenizer, max_model_len=max_model_len,trust_remote_code=True)
    outputs = llm.generate(prompts, sampling_params)
return outputs

3、指定模型地址&定义消息

# 初始化 vLLM 推理引擎
model='/root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B' # 指定模型路径
# model="deepseek-ai/DeepSeek-R1-Distill-Qwen-7B" # 指定模型名称,自动下载模型
tokenizer = None
# 加载分词器后传入vLLM 模型,但不是必要的。
# tokenizer = AutoTokenizer.from_pretrained(model, use_fast=False) 

text = ["请帮我推荐一种深圳到北京的出行方式
", ] 
# 可用 List 同时传入多个 prompt,根据 DeepSeek 官方的建议,每个 prompt 都需要以 
 结尾,
#如果是数学推理内容,建议包含(中英文皆可):Please reason step by step, and put your final answer within oxed{}.

# messages = [
#     {"role": "user", "content": prompt+"
"}
# ]
# 作为聊天模板的消息,不是必要的。
# text = tokenizer.apply_chat_template(
#     messages,
#     tokenize=False,
#     add_generation_prompt=True
# )

4、获取输出结果

# 思考需要输出更多的 Token 数,max_tokens 设为 8K,根据 DeepSeek 官方的建议,temperature应在 0.5-0.7,推荐 0.6
outputs = get_completion(text, model, tokenizer=tokenizer, max_tokens=8192, temperature=0.6, top_p=0.95, max_model_len=2048) 

# 输出是一个包含 prompt、生成文本和其他信息的 RequestOutput 对象列表。
# 打印输出。
for output in outputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    if r"" in generated_text:
        think_content, answer_content = generated_text.split(r"")
    else:
        think_content = ""
        answer_content = generated_text
print(f"Prompt: {prompt!r}, Think: {think_content!r}, Answer: {answer_content!r}")

执行如下:

打印结果如下:

Prompt: '请帮我推荐一种深圳到北京的出行方式
', Think: '好的,我现在要帮用户推荐从深圳到北京的出行方式。用户之前已经问过这个问题,现在可能需要进一步的信息或不同的选项。首先,我得考虑用户的需求可能是什么。他们可能时间紧迫,或者喜欢不同的旅行风格。

深圳到北京的路线有很多,比如高铁、飞机、大巴,还有可能的自驾或者中转其他城市。我应该先列出几种主要的交通方式,然后详细说明每种方式的优缺点,这样用户可以根据自己的情况选择。

首先,高铁是最快的方式,时间大概4-5小时,而且舒适,还有直达的班次。但高铁需要提前预订,特别是节假日,可能要提前一到两周。高铁适合大多数用户,尤其是那些时间紧张或喜欢高铁舒适环境的人。

然后是飞机,深圳有机场,北京有首都机场和大兴机场。飞机时间大约2-3小时,但价格比较高,而且航班可能比较紧张,尤其是热门季节。如果用户喜欢 direct flight,或者时间不够,飞机是个不错的选择。

接下来是大巴,虽然时间较长,但价格便宜,而且在车上可以睡觉,体验更像旅行。但大巴的班次可能不如高铁频繁,而且在大站之间可能比较慢,适合预算有限的用户。

另外,用户可能还考虑是否需要中转。比如从深圳飞到上海,再转到北京,或者深圳到天津再到北京。这样的路线可能在价格上更有优势,但时间会更长,可能不太适合时间紧张的用户。

如果用户喜欢自驾,可以考虑从深圳到北京自驾,但需要考虑时间、路线、油费等因素,而且北京的限行政策可能需要提前了解。

还有,是否有直达的高铁?比如深圳北站到北京西站的G字头列车,这可能是一个快速的选择。如果用户对高铁比较熟悉,这样的选择会很方便。

我还需要提醒用户注意一些细节,比如高铁需要提前订票,尤其是节假日,可能会有 seat changes 的限制。飞机方面,提前预订机票,选择合适的航班,避免延误。

另外,北京的天气可能在冬季较冷,用户可能需要带保暖衣物,或者考虑是否需要提前预订住宿。

综合考虑,我应该推荐高铁作为首选,因为时间快、舒适,然后飞机作为替代,接着是大巴,最后是中转或自驾。这样用户可以根据自己的情况和预算做出选择。
', Answer: '

深圳到北京的出行方式多样,您可以根据自己的时间和预算选择最适合的方式。以下是几种主要的出行方式推荐:

### 1. **高铁**
   - **优点**:时间最短,约4-5小时,舒适,直达。
   - **缺点**:需要提前预订,节假日可能需要提前一到两周。
   - **推荐理由**:如果时间紧张且喜欢高铁的舒适性,高铁是最佳选择。

### 2. **飞机**
   - **优点**:时间较短,约2-3小时,直达。
   - **缺点**:价格较高,航班可能紧张,尤其是节假日。
   - **推荐理由**:如果您喜欢 direct flight,或者时间不够,飞机是一个不错的选择。

### 3. **大巴**
   - **优点**:价格便宜,时间较长(约8-12小时),适合预算有限的用户。
   - **缺点**:班次可能不如高铁频繁,体验可能更像旅行。
   - **推荐理由**:如果预算有限且时间允许,大巴是一个经济的选择。

### 4. **中转**
   - 深圳到北京的高铁和飞机主要班次都从北京西站或首都机场出发,您也可以选择中转,例如:
     - 深圳飞上海或天津,再转乘高铁或飞机到北京。
     - 深圳飞天津或上海,再转乘高铁到北京。
   - **优点**:价格可能更优惠,适合预算有限的用户。
   - **缺点**:时间会更长,建议提前规划。

### 5. **自驾**
   - **优点**:时间灵活,可以体验沿途风光。
   - **缺点**:需要考虑时间和路线,油费等额外费用。
   - **推荐理由**:如果喜欢自驾,可以选择从深圳出发,沿京昆高速、京沪高速等行驶到北京。

### 6. **其他方式**
   - **公共交通**:深圳有地铁、公交等,但直接到北京可能不太方便。
   - **共享出行**:如网约车服务(如滴滴出行、出租车等),方便灵活。

### 建议:
- **时间紧迫且喜欢高铁**:高铁是最佳选择。
- **喜欢 direct flight**:飞机是不错的选择。
- **预算有限**:大巴或中转是更好的选择。

希望这些信息能帮助您选择合适的出行方式!如果需要更详细的行程规划或预订建议,可以告诉我您的偏好,我会尽力帮助您。'

四、OpenAI API服务部署测试

DeepSeek-R1-Distill-Qwen 是一款高性能的蒸馏语言模型,它兼容 OpenAI API 协议,能够通过 vLLM 框架快速创建一个本地的 OpenAI API 服务器。vLLM 是一个开源的高效推理框架,专为大语言模型设计,支持多种优化技术,如 PagedAttention 算法,能够显著提升推理效率。启动的服务器默认监听 http://localhost:8000,支持以下功能:

  • Completions API:用于基本的文本生成任务,如生成文章、故事或邮件。
  • Chat Completions API:用于对话任务,如构建聊天机器人。

1、发布OpenAI API服务

部署服务器时,可以指定以下参数:
–host 和 --port:指定服务器地址和端口。
–model:指定模型路径。
–chat-template:指定聊天模板。
–served-model-name:指定服务模型的名称。
–max-model-len:指定模型的最大上下文长度。
以下是启动命令:

python -m vllm.entrypoints.openai.api_server 
  --model /root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B 
  --served-model-name DeepSeek-R1-Distill-Qwen-7B 
  --max-model-len=2048

服务启动如下:

此命令将启动一个本地服务器,监听 http://localhost:8000。

2、Completions API调用

from openai import OpenAI

client = OpenAI(base_url="http://localhost:8000/v1", api_key="sk-xxx")
response = client.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    prompt="简单介绍一下deepseek?
",
    max_tokens=1024
)
print(response.choices[0].text)

在这段代码中,使用openai库创建OpenAI客户端对象,指定base_url为本地启动的vLLM服务地址http://localhost:8000/v1api_key为任意值(因为在本地测试,这里主要用于满足接口格式要求)。然后,调用client.completions.create方法,传入模型名称、提示词和最大生成token数,获取模型的推理结果,并打印生成的文本。如果在调用过程中出现错误,可能是因为服务未启动、参数设置错误等原因,需要仔细排查。

模型响应输出如下

好的,我现在要介绍一下DeepSeek。首先,我得快速浏览一下用户提供的内容,了解DeepSeek的基本信息。DeepSeek是一家专注实现AGI的中国的人工智能公司,由深度求索人工智能研究院成立,致力于AGI研究和落地。

我知道AGI指的是通用人工智能,即在智力上超越人类的人工智能系统,具有自主学习、推理、解决问题等能力。所以DeepSeek的项目目标就是实现这一点。接下来,他们的研究领域包括认知科学、计算机科学、量子计算、脑机接口和元学习,这些都是AGI研究的重要方向。

然后看了一下他们的方向,包括认知建模与理解、自由意志与决策、量子计算与算力提升、脑机交互与意识提升、元学习与自适应学习。这些听起来比较广泛,涵盖了多个技术领域。技术能力方面提到了自然语言处理、计算机视觉、数值计算等,这些都是机器学习中的核心领域,特别是深度学习在这些方面的应用。

医疗、教育、 withdrawal这些应用领域,尤其是医疗和教育,都是AI应用的重要方向。医疗AI可以帮助诊断疾病,提高治疗效果;教育AI可以提供个性化学习体验,提高教育效率。

最后,他们的愿景是让用户与AI成为完美的协作伙伴,这可能意味着DeepSeek希望通过其技术帮助用户更高效地解决各种问题,提升生活质量和工作效率。

整体来看,DeepSeek是一家致力于实现AGI的公司,涉及多个技术领域,并且有明确的应用目标,这使得他们的 work likely 在AI领域有不错的影响力。如果有时间,我想深入了解它们的研究方法、取得的成果以及面临的挑战。

现在,我要检查一下是否理解正确,以及信息是否有遗漏。比如,DeepSeek的成立背景是什么?我需要确保“深度求索人工智能研究院”是其成立的背景,而非其他。此外,AGI的定义是否正确,是否有其他公司也在 chasing AGI?

另外,DeepSeek的具体技术手段是什么?是基于特定模型或算法的创新?提到的自然语言处理、计算机视觉等,这些具体如何实现AGI的目标?

在应用方面, withdraw的应用可能是指用户退出或其他功能,可能需要更正。此外,技术能力部分可能需要更详细地解释每个技术如何支持AGI。

总结来说,我需要确保在介绍中准确传达DeepSeek的核心目标、研究领域、技术能力以及应用,同时注意使用准确的专业术语,并保持逻辑清晰。
</think>

DeepSeek 是一家专注实现通用人工智能(AGI)的中国公司,由深度求索人工智能研究院成立于2023年。其目标是通过研究和实现AGI,推动人工智能技术的变革性发展。以下是DeepSeek的详细介绍:

1. **背景与目标**
   - **成立背景**:由深度求索人工智能研究院成立,致力于AGI研究和落地。
   - **核心目标**:实现AGI,即超越人类智力水平的人工智能系统,具备自主学习、推理和解决问题的能力。

2. **研究领域**
   - 涵盖认知科学、计算机科学、量子计算、脑机接口和元学习,涵盖多个关键领域,包括但不仅限于认知建模与理解、自由意志与决策、量子计算与算力提升、脑机交互与意识提升以及元学习与自适应学习。

3. **技术能力**
   - 应用于自然语言处理、计算机视觉、数值计算、元学习和强化学习等技术领域,推动新兴技术的发展,特别是深度学习在各领域的创新应用。

4. **应用领域**
   - **医疗**:通过AI提高诊断准确性和治疗效果,优化资源配置,提升医疗服务。
   - **教育**:提供个性化学习方案,提升学习体验和教育效率。
   - **其他**:DeepSeek 还探索在 withdrawals 行业的应用,如安全监控和应急响应等领域。

5. **愿景**
   - 让用户与AI成为完美的协作伙伴,提升生活质量和工作效率,实现人机完美的协作。

**补充说明**- **成立背景**:作为一家新兴的高科技公司,DeepSeek可能尚未获得广泛的关注,但其专注于AGI的研究,可能在量子计算、脑机接口等领域具备先发优势。
- **AGI挑战**:AGI的实现仍面临巨大挑战,包括技术突破、伦理问题和应用安全等,DeepSeek的进展值得持续关注。
- **技术手段**:具体的创新可能包括新型算法、硬件加速技术或跨学科的国际合作,以突破现有技术限制。

DeepSeek的成立标志着中国AI生态中的又一重要参与者,其目标不仅是技术突破,更是推动社会的整体发展。

3、Chat Completions API调用

chat_response = client.chat.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    messages=[{"role": "user", "content": "我买了10个苹果,给了你3个,自己吃了1个,还剩几个?"}]
)
print(chat_response.choices[0].message.content)

此代码用于调用Chat Completions API,通过client.chat.completions.create方法,传入模型名称和包含用户消息的列表,获取聊天模式下的推理结果,并打印模型生成的回答内容。在实际应用中,可以根据用户需求,优化提示词和消息列表,以获得更准确、更有用的回答。

模型响应输出如下

你买了总共10个苹果。

给了对方3个, yourself剩下10减去3等于7个苹果。

接着,自己又吃了1个苹果,剩下7减去1等于6个苹果。

所以,最终剩下6个苹果。
</think>

**解答:**

1. **总苹果数**:你最初有10个苹果。

2. **给对方3**( 10 - 3 = 7 )  
   你剩下7个苹果。

3. **自己吃了1**( 7 - 1 = 6 )  
   最终剩下6个苹果。

**答案:oxed{6}**

4、命令行调用OpenAI API接口

命令行调用示例如下:

curl http://localhost:8000/v1/completions 
    -H "Content-Type: application/json" 
    -d '{
        "model": "DeepSeek-R1-Distill-Qwen-7B",
        "prompt": "我买了10个苹果,给了你3个,自己吃了1个,还剩几个?
",
        "max_tokens": 1024,
        "temperature": 0
}'

执行结果如下:

五、最佳实践建议

1. 显存优化

对于配备24G显存的3090显卡,建议设置max_model_len=2048。因为模型长度与显存占用密切相关,合理设置max_model_len,可以避免因模型长度过大导致显存不足的问题,确保模型能够稳定运行。如果需要处理更长的文本,可以考虑增加显存或者优化模型结构。

2. 温度参数

在不同的任务场景下,合理调整温度参数(temperature)至关重要。对于创造性任务,如文本创作、故事生成等,建议将temperature设置为0.7 - 0.9,这样可以使生成的文本更加多样化和富有创意;对于逻辑推理任务,如数学计算、知识问答等,建议将temperature设置为0.3 - 0.5,以确保生成的文本更加准确和逻辑严谨。

总结

通过本文的详细介绍,你已经掌握了使用vLLM框架部署DeepSeek-R1-Distill-Qwen大语言模型的全流程。从vLLM框架的特性解析,到环境配置、模型部署、API接口测试,再到最佳实践建议,每一步都为你在大语言模型部署的道路上提供了坚实的指引。希望你在实际应用中,能够灵活运用这些知识,充分发挥vLLM和DeepSeek-R1-Distill-Qwen模型的优势,实现更多创新的应用。

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:我是寻道AI小兵,资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索。
📖 技术交流:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,加入技术交流群,开启编程探索之旅。
💘精心准备📚500本编程经典书籍、💎AI专业教程,以及高效AI工具。等你加入,与我们一同成长,共铸辉煌未来。
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我,让我们携手同行AI的探索之旅,一起开启智能时代的大门!

本文地址:https://www.vps345.com/977.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge 进程 操作系统 进程控制 Ubuntu python MCP ssh 阿里云 网络 网络安全 网络协议 llama 算法 opencv 自然语言处理 神经网络 语言模型 ubuntu deepseek Ollama 模型联网 API CherryStudio RTSP xop RTP RTSPServer 推流 视频 数据库 centos oracle 关系型 安全 分布式 numpy android harmonyos typescript 鸿蒙 flutter java 面试 性能优化 jdk intellij-idea 架构 php Dell R750XS 华为 开发语言 计算机网络 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse 深度学习 YOLO 目标检测 计算机视觉 人工智能 HCIE 数通 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 macos adb websocket .net 前端框架 windows docker 产品经理 agi microsoft vim django flask web3.py 嵌入式硬件 笔记 C 环境变量 进程地址空间 jmeter 软件测试 github AI Agent 容器 DeepSeek-R1 API接口 live555 rtsp rtp sqlserver YOLOv12 WSL win11 无法解析服务器的名称或地址 Hyper-V WinRM TrustedHosts DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 apache web安全 Kali Linux 黑客 渗透测试 信息收集 机器学习 vue3 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 asm 创意 社区 c# cuda cudnn anaconda Flask FastAPI Waitress Gunicorn uWSGI Uvicorn Windsurf 微服务 springcloud cpu 内存 实时 使用 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 ide c++ react.js 前端面试题 node.js 持续部署 YOLOv8 NPU Atlas800 A300I pro asi_bench Qwen2.5-coder 离线部署 jenkins ollama下载加速 大模型 pytorch transformer c语言 qt stm32项目 单片机 stm32 pycharm 科技 ai 个人开发 pip conda tcp/ip udp unity golang 后端 物联网 iot oceanbase rc.local 开机自启 systemd 麒麟 ssl ping++ 运维开发 深度优先 图论 并集查找 换根法 树上倍增 ollama llm chatgpt llama3 Chatglm 开源大模型 ffmpeg 音视频 计算机外设 电脑 mac 软件需求 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 温湿度数据上传到服务器 Arduino HTTP gitee spring boot rust http 微信 微信分享 Image wxopensdk GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 WSL2 uni-app 负载均衡 ESP32 LDAP tomcat maven intellij idea 实时音视频 vscode nginx 监控 自动化运维 智能路由器 外网访问 内网穿透 端口映射 .netcore json html5 firefox LLM java-ee dify remote-ssh rust腐蚀 AI编程 AIGC 统信 国产操作系统 虚拟机安装 框架搭建 RAID RAID技术 磁盘 存储 gcc 低代码 ArcTS 登录 ArcUI GridItem jar spring 鸿蒙系统 arkUI W5500 OLED u8g2 TCP服务器 AI大模型 程序员 postgresql 系统开发 binder 车载系统 framework 源码环境 debian Samba NAS 大数据 政务 分布式系统 监控运维 Prometheus Grafana Cursor 微信小程序 小程序 docker compose mysql RustDesk自建服务器 rustdesk服务器 docker rustdesk Trae AI代码编辑器 gitlab opensearch helm 雨云 NPS rocketmq WebRTC gpt 华为od OD机试真题 华为OD机试真题 服务器能耗统计 Linux PID 恒源云 redis matlab kubernetes 学习方法 经验分享 程序人生 vSphere vCenter 软件定义数据中心 sddc RTMP 应用层 jupyter tcpdump opcua opcda KEPServer安装 oneapi 云原生 etcd 数据安全 RBAC open webui 企业微信 Linux24.04 deepin 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 腾讯云大模型知识引擎 Deepseek MQTT 消息队列 adobe 传统数据库升级 银行 大语言模型 LLMs Dify Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket webrtc pygame 小游戏 五子棋 https 自动化 1024程序员节 springsecurity6 oauth2 授权服务器 token sas FTP 服务器 XCC Lenovo 软件工程 DeepSeek 繁忙 服务器繁忙 解决办法 替代网站 汇总推荐 AI推理 mongodb dba 报错 pdf VSCode 多线程服务器 Linux网络编程 Java android studio list 数据结构 僵尸进程 raid5数据恢复 磁盘阵列数据恢复 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos visualstudio prometheus springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 VMware安装Ubuntu Ubuntu安装k8s k8s 服务器部署ai模型 开源 mysql离线安装 ubuntu22.04 mysql8.0 部署 SSL 域名 JAVA spring cloud 混合开发 环境安装 JDK centos-root /dev/mapper yum clean all df -h / du -sh IDE AI 原生集成开发环境 Trae AI 3d 测试工具 Linux 命令行 基础入门 学习 编程 mcu 驱动开发 硬件工程 嵌入式实习 gpu算力 pyqt 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 Kylin-Server 服务器安装 EasyConnect Cline zabbix 系统架构 excel ecmascript nextjs react reactjs Redis Desktop 缓存 多进程 远程 命令 执行 sshpass 操作 流式接口 网工 压测 ECS bash firewalld virtualenv 搜索引擎 ssrf 失效的访问控制 向日葵 openwrt ux 多线程 Google pay Apple pay KVM 服务器主板 AI芯片 信息与通信 open Euler dde 统信UOS 交互 hadoop 飞牛NAS 飞牛OS MacBook Pro wireshark 代码调试 ipdb xrdp 远程桌面 远程连接 svn string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 游戏服务器 TrinityCore 魔兽世界 Ubuntu Server Ubuntu 22.04.5 雨云服务器 开机自启动 能力提升 面试宝典 技术 IT信息化 环境迁移 崖山数据库 YashanDB 源码剖析 rtsp实现步骤 流媒体开发 Ubuntu 24.04.1 轻量级服务器 NFS redhat ue4 着色器 ue5 虚幻 目标跟踪 OpenVINO 推理应用 Reactor 设计模式 C++ safari Mac 系统 相差8小时 UTC 时间 sqlite3 netty QQ 机器人 bot Docker rpc 远程过程调用 Windows环境 直播推流 毕设 ESXi kvm 无桌面 git gitea 媒体 微信公众平台 risc-v C语言 iftop 网络流量监控 嵌入式 linux驱动开发 arm开发 串口服务器 make命令 makefile文件 CLion html css HarmonyOS Next DevEco Studio gradle 指令 bootstrap web ci/cd C# MQTTS 双向认证 emqx 计算机 进程信号 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 跨域 ecm bpm 文件系统 路径解析 threejs 3D 宕机切换 服务器宕机 bonding 链路聚合 curl wget 压力测试 课程设计 devops springboot 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 设置代理 实用教程 idm Minecraft ddos linux 命令 sed 命令 集成学习 集成测试 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 远程工作 freebsd PVE zotero WebDAV 同步失败 代理模式 ansible playbook SSH 服务 SSH Server OpenSSH Server RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 iDRAC R720xd 医疗APP开发 app开发 rabbitmq dell服务器 go 硬件架构 IIS .net core Hosting Bundle .NET Framework vs2022 XFS xfs文件系统损坏 I_O error es jvm minicom 串口调试工具 蓝耘科技 元生代平台工作流 ComfyUI 测试用例 功能测试 shell 磁盘监控 服务器配置 华为云 生物信息学 openEuler 状态管理的 UDP 服务器 Arduino RTOS X11 Xming 腾讯云 docker命令大全 mq kafka minio 数据挖掘 r语言 数据可视化 mariadb UOS 统信操作系统 yum 交换机 硬件 设备 GPU PCI-Express selenium mybatis jetty undertow 音乐服务器 Navidrome 音流 kylin 智能手机 Termux elasticsearch SSH Docker Hub docker pull 镜像源 daemon.json Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 Erlang OTP gen_server 热代码交换 事务语义 fpga开发 Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 编辑器 hugo 大模型面经 职场和发展 大模型学习 Dell HPE 联想 浪潮 ruoyi WebUI DeepSeek V3 MQTT协议 消息服务器 代码 DeepSeek行业应用 Heroku 网站部署 爬虫 数据集 asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 nuxt3 wsl2 wsl efficientVIT YOLOv8替换主干网络 TOLOv8 AI写作 AI作画 GCC crosstool-ng IIS服务器 IIS性能 日志监控 next.js 部署next.js 聊天室 多层架构 解耦 服务器管理 宝塔面板 配置教程 网站管理 其他 银河麒麟服务器操作系统 系统激活 剧本 数据分析 分析解读 博客 sql KingBase k8s集群资源管理 云原生开发 IPMI unix chfs ubuntu 16.04 漏洞 微信开放平台 微信公众号配置 安全威胁分析 vscode 1.86 selete 高级IO 网络穿透 云服务器 技能大赛 Nuxt.js Xterminal protobuf 序列化和反序列化 安装 ros2 moveit 机器人运动 豆瓣 追剧助手 迅雷 nas MacMini 迷你主机 mini Apple 弹性计算 裸金属服务器 弹性裸金属服务器 虚拟化 eureka webstorm unity3d 银河麒麟 kylin v10 麒麟 v10 express okhttp CORS eNSP 网络规划 VLAN 企业网络 显示过滤器 ICMP Wireshark安装 linux环境变量 CPU 主板 电源 网卡 强制清理 强制删除 mac废纸篓 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 Ark-TS语言 大模型微调 半虚拟化 硬件虚拟化 Hypervisor 虚拟机 VMware 边缘计算 智能硬件 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 micropython esp32 mqtt VR手套 数据手套 动捕手套 动捕数据手套 gateway Clion Nova ResharperC++引擎 Centos7 远程开发 模拟退火算法 visual studio code 命名管道 客户端与服务端通信 code-server mosquitto Docker Compose docker-compose av1 电视盒子 机顶盒ROM 魔百盒刷机 sqlite dubbo MS Materials 数学建模 openssl 密码学 hibernate kamailio sip VoIP VMware安装mocOS macOS系统安装 大数据平台 TRAE echarts 信息可视化 网页设计 数据库系统 pillow 做raid 装系统 BMC Java Applet URL操作 服务器建立 Socket编程 网络文件读取 armbian u-boot 大模型入门 大模型教程 无人机 ROS 自动驾驶 chrome devtools chromedriver ukui 麒麟kylinos openeuler npm xcode 游戏程序 回显服务器 UDP的API使用 服务网格 istio Linux环境 ftp 火绒安全 升级 CVE-2024-7347 VPS VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 网络结构图 yaml Ultralytics 可视化 超融合 实时互动 ceph big data 鲲鹏 昇腾 npu 飞书 孤岛惊魂4 uniapp vue 中间件 可信计算技术 安全架构 网络攻击模型 语法 web3 tcp 大模型应用 vscode1.86 1.86版本 ssh远程连接 本地部署AI大模型 LInux 深度求索 私域 知识库 交叉编译 gpt-3 文心一言 IPMITOOL 硬件管理 IPv4 子网掩码 公网IP 私有IP 匿名管道 sdkman 主从复制 frp 金融 seatunnel sysctl.conf vm.nr_hugepages 单一职责原则 黑苹果 序列化反序列化 Ubuntu共享文件夹 共享目录 Linux共享文件夹 系统安全 spark HistoryServer Spark YARN jobhistory CDN Headless Linux Linux的基础指令 alias unalias 别名 群晖 飞牛 asp.net大文件上传下载 nvidia iis 移动云 composer 云服务 regedit 开机启动 双系统 GRUB引导 Linux技巧 自定义客户端 SAS skynet 僵尸世界大战 游戏服务器搭建 IM即时通讯 剪切板对通 HTML FORMAT 银河麒麟操作系统 国产化 蓝桥杯 zookeeper nfs embedding 源码 毕业设计 rsyslog Anolis nginx安装 linux插件下载 ruby v10 软件 ldap 京东云 阿里云ECS LORA NLP hive Hive环境搭建 hive3环境 Hive远程模式 webgl uv glibc URL 本地部署 api 架构与原理 多个客户端访问 IO多路复用 TCP相关API flash-attention 自学笔记 小米 澎湃OS Android prompt IO模型 网络工程师 华为认证 软负载 AI-native Docker Desktop 黑客技术 less 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors cpp-httplib epoll MI300x rnn grafana SSE 链表 LLM Web APP Streamlit n8n 工作流 workflow bug cnn aws Unity Dedicated Server Host Client 无头主机 开发环境 SSL证书 g++ g++13 Cookie elk 移动魔百盒 matplotlib USB转串口 CH340 arcgis odoo 服务器动作 Server action tidb GLIBC 历史版本 下载 python3.11 etl 视频编解码 Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer 视觉检测 IMX317 MIPI H265 VCU 文件分享 VMware创建虚拟机 自动化测试 性能测试 代码托管服务 mamba Vmamba 远程控制 远程看看 远程协助 线程 sentinel 代理 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 midjourney cd 目录切换 三级等保 服务器审计日志备份 FTP服务器 OpenManus ip命令 新增网卡 新增IP 启动网卡 ios iphone 宝塔 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 DNS 佛山戴尔服务器维修 佛山三水服务器维修 ipython c/c++ 串口 DeepSeek r1 Open WebUI swoole 模拟实现 联想开天P90Z装win10 tensorflow Invalid Host allowedHosts 支付 微信支付 开放平台 ArkTs ArkUI eclipse 图像处理 游戏引擎 干货分享 黑客工具 密码爆破 策略模式 单例模式 软考 安卓 triton 模型分析 矩阵 线性代数 电商平台 IDEA 互信 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 SenseVoice bat camera Arduino 电子信息 执法记录仪 智能安全帽 smarteye tailscale derp derper 中转 cursor MCP server C/S windows日志 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 Kali 渗透 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 DOIT 四博智联 MacOS录屏软件 lua vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 版本 自动化任务管理 easyui langchain 串口驱动 CH341 uart 485 常用命令 文本命令 目录命令 thingsboard 音乐库 安防软件 ragflow H3C 权限 前后端分离 yum源切换 更换国内yum源 bcompare Beyond Compare 模拟器 教程 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 fd 文件描述符 飞牛nas fnos Ubuntu22.04 开发人员主页 trea idea log4j uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 arm Jellyfin FunASR ASR vr file server http server web server kali 共享文件夹 键盘 rdp 实验 技术共享 我的世界服务器搭建 嵌入式Linux IPC 5G 3GPP 卫星通信 王者荣耀 Wi-Fi DocFlow EMUI 回退 降级 Spring Security 我的世界 我的世界联机 数码 linux安装配置 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 ISO镜像作为本地源 云电竞 云电脑 todesk Linux的权限 SysBench 基准测试 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 apt ui 灵办AI 影刀 #影刀RPA# 单元测试 MNN Qwen 监控k8s 监控kubernetes ip 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 pppoe radius c AnythingLLM AnythingLLM安装 Netty 即时通信 NIO SWAT 配置文件 服务管理 网络共享 图形化界面 gaussdb 银河麒麟桌面操作系统 Kylin OS 远程服务 xss 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 迁移指南 实习 edge浏览器 Claude qemu libvirt ocr AI agent Typore WebVM 思科模拟器 思科 Cisco 并查集 leetcode saltstack trae 分布式训练 反向代理 DenseNet kind CrewAI 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 算力 can 线程池 Radius googlecloud GoogLeNet qt项目 qt项目实战 qt教程 muduo USB网络共享 计算虚拟化 弹性裸金属 监控k8s集群 集群内prometheus 工业4.0 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 根服务器 clickhouse linux上传下载 社交电子 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 EMQX 通信协议 VS Code laravel 小智AI服务端 xiaozhi TTS 直流充电桩 充电桩 docker run 数据卷挂载 交互模式 junit vmware 卡死 AD 域管理 自动化编程 网站搭建 serv00 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? 显示管理器 lightdm gdm 远程登录 telnet 同步 备份 建站 ssh漏洞 ssh9.9p2 CVE-2025-23419 阻塞队列 生产者消费者模型 服务器崩坏原因 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 需求分析 规格说明书 p2p 宠物 免费学习 宠物领养 宠物平台 RAGFlow 本地知识库部署 DeepSeek R1 模型 小艺 Pura X ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 游戏机 毕昇JDK dns 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 HTTP 服务器控制 ESP32 DeepSeek minecraft 备选 网站 调用 示例 AD域 致远OA OA服务器 服务器磁盘扩容 perf rime DBeaver 数据仓库 kerberos 网络用户购物行为分析可视化平台 大数据毕业设计 程序员创富 vasp安装 xml 查询数据库服务IP地址 SQL Server 语音识别 AutoDL 实战案例 业界资讯 软件构建 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 openstack Xen 虚拟显示器 7z pgpool cfssl cmos 输入法 端口测试 田俊楠 产测工具框架 IMX6ULL 管理框架 xshell termius iterm2 AISphereButler neo4j 数据库开发 database outlook Logstash 日志采集 银河麒麟高级服务器 外接硬盘 Kylin Playwright flink 华为机试 P2P HDLC keepalived nac 802.1 portal 重启 排查 系统重启 日志 原因 HarmonyOS NEXT 原生鸿蒙 推荐算法 聚类 程序 性能分析 存储维护 NetApp存储 EMC存储 TrueLicense MVS 海康威视相机 fstab rustdesk 内网服务器 内网代理 内网通信 强化学习 proxy模式 虚拟局域网 合成模型 扩散模型 图像生成 鸿蒙开发 移动开发 top Linux top top命令详解 top命令重点 top常用参数 显卡驱动 ubuntu20.04 ros ros1 Noetic 20.04 apt 安装 autodl onlyoffice 在线office OpenSSH HarmonyOS OpenHarmony 真机调试 SSH 密钥生成 SSH 公钥 私钥 生成 基础环境 sequoiaDB 人工智能生成内容 IMM 捆绑 链接 谷歌浏览器 youtube google gmail 智能音箱 智能家居 图形渲染 容器技术 react native jina docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 相机 iperf3 带宽测试 seleium prometheus数据采集 prometheus数据模型 prometheus特点 Qwen2.5-VL vllm 对比 工具 meld DiffMerge 开发 wsgiref Web 服务器网关接口 Windows ai工具 java-rocketmq 项目部署 考研 GIS 遥感 WebGIS ardunio BLE 大大通 第三代半导体 碳化硅 lio-sam SLAM 本地化部署 Node-Red 编程工具 流编程 项目部署到linux服务器 项目部署过程 banner wps 玩机技巧 软件分享 软件图标 ubuntu24.04.1 内网环境 h.264 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 私有化 yolov8 读写锁 AI Agent 字节智能运维 办公自动化 自动化生成 pdf教程 fast MySql 端口 查看 ss 网卡的名称修改 eth0 ens33 rclone AList webdav fnOS deployment daemonset statefulset cronjob harmonyOS面试题 邮件APP 免费软件 软件卸载 系统清理 SRS 流媒体 直播 Deepseek-R1 私有化部署 推理模型 rag ragflow 源码启动 运维监控 dash 正则表达式 word pyautogui db ShenTong css3 Linux find grep 钉钉 deepseek r1 知识图谱 信创 信创终端 中科方德 端口聚合 windows11 UOS1070e 粘包问题 抓包工具 System V共享内存 进程通信 vpn 国内源 用户缓冲区 镜像 docker desktop image PX4 加解密 Yakit yaklang visual studio 网络建设与运维 MacOS NLP模型 x64 SIGSEGV xmm0 miniapp 调试 debug 断点 网络API请求调试方法 HiCar CarLife+ CarPlay QT RK3588 Mac内存不够用怎么办 服务器时间 流量运营 navicat KylinV10 麒麟操作系统 Vmware cocoapods ranger MySQL8.0 xpath定位元素 aarch64 编译安装 HPC MDK 嵌入式开发工具 论文笔记 sublime text Attention 信号处理 deep learning docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 iBMC UltraISO 防火墙 NAT转发 NAT Server 域名服务 DHCP 符号链接 配置 nlp 树莓派 VNC 企业网络规划 华为eNSP Unity插件 su sudo iventoy VmWare OpenEuler 金仓数据库 2025 征文 数据库平替用金仓 Xinference 云桌面 微软 AD域控 证书服务器 个人博客 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 免费域名 域名解析 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 gnu ubuntu24 vivado24 UDP grub 版本升级 扩容 李心怡 多端开发 智慧分发 应用生态 鸿蒙OS 游戏开发 嵌入式系统开发 带外管理 代理服务器 perl 中兴光猫 换光猫 网络桥接 自己换光猫 Python基础 Python教程 Python技巧 WLAN 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 大模型推理 极限编程 llama.cpp 元服务 应用上架 软链接 硬链接 换源 Debian win服务器架设 windows server dns是什么 如何设置电脑dns dns应该如何设置 figma 流水线 脚本式流水线 大模型部署 deekseek 查看显卡进程 fuser 状态模式 ArtTS HAProxy kotlin ssh远程登录 物联网开发 virtualbox nvm whistle 问题解决 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 信号 SEO 浏览器开发 AI浏览器 CentOS hexo 烟花代码 烟花 元旦 性能调优 安全代理 powerpoint 环境配置 dity make 磁盘清理 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 searxng PPI String Cytoscape CytoHubba firewall SVN Server tortoise svn TCP协议 抗锯齿 wpf 拓扑图 健康医疗 互联网医院 ABAP sonoma 自动更新 milvus QT 5.12.12 QT开发环境 Ubuntu18.04 js 计算生物学 生物信息 基因组 dock 加速 搜狗输入法 中文输入法 服务器正确解析请求体 AI员工 IO 西门子PLC 通讯 DIFY CentOS Stream yolov5 nosql MobaXterm rpa 搭建个人相关服务器 达梦 DM8 WSL2 上安装 Ubuntu 热榜 接口优化 k8s二次开发 欧标 OCPP 离线部署dify kernel 浏览器自动化 解决方案 vu大文件秒传跨域报错cors 通信工程 毕业 docker部署Python yum换源 conda配置 conda镜像源 稳定性 看门狗 网络爬虫 开机黑屏 沙盒 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 云耀服务器 虚幻引擎 风扇控制软件 Sealos 论文阅读 macOS mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 网络搭建 神州数码 神州数码云平台 云平台 hosts 数字证书 签署证书 多路转接 智能电视