最新资讯

  • 【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器

【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器

2025-04-27 21:37:22 1 阅读

系列篇章💥

No.文章
01【DeepSeek应用实践】DeepSeek接入Word、WPS方法详解:无需代码,轻松实现智能办公助手功能
02【DeepSeek应用实践】通义灵码 + DeepSeek:AI 编程助手的实战指南
03【DeepSeek应用实践】Cline集成DeepSeek:开源AI编程助手,终端与Web开发的超强助力
04【DeepSeek开发入门】DeepSeek API 开发初体验
05【DeepSeek开发入门】DeepSeek API高级开发指南(推理与多轮对话机器人实践)
06【DeepSeek开发入门】Function Calling 函数功能应用实战指南
07【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:本地部署与API服务快速上手
08【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:Web聊天机器人部署指南
09【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器
10【DeepSeek部署实战】基于Ollama快速部署DeepSeek-R1系列模型实战指南(Linux)
11【DeepSeek部署实战】基于Ollama+Chatbox零成本部署DeepSeek-R1系列模型攻略(Windows)
12【DeepSeek开发实战】DeepSeek-R1-Distill-Qwen与LangChain的本地大模型应用开发指南

目录

  • 系列篇章💥
  • 前言
  • 一、vLLM框架特性解析
    • 1、高效内存管理
    • 2、吞吐量王者
    • 3、无缝生态集成
    • 4、分布式推理支持
    • 5、开源社区驱动
  • 二、环境配置指南
    • 1、基础环境要求
    • 2、安装相关依赖
    • 3、模型文件下载
  • 三、模型推理实践
    • 1、导入相关依赖包
    • 2、定义LLM处理函数
    • 3、指定模型地址&定义消息
    • 4、获取输出结果
  • 四、OpenAI API服务部署测试
    • 1、发布OpenAI API服务
    • 2、Completions API调用
    • 3、Chat Completions API调用
    • 4、命令行调用OpenAI API接口
  • 五、最佳实践建议
    • 1. 显存优化
    • 2. 温度参数
  • 总结


前言

大语言模型的落地应用离不开高效推理框架的支持,vLLM以其卓越的性能在众多框架中脱颖而出。本文将带你深入探索如何使用vLLM框架部署DeepSeek-R1-Distill-Qwen大语言模型,无论是深度学习新手还是有经验的开发者,都能从中获取实用的知识和技能。

一、vLLM框架特性解析

1、高效内存管理

在大模型推理中,内存管理至关重要。vLLM独创的PagedAttention算法,如同为显存空间安排了一位智能管家。它借鉴操作系统虚拟内存管理机制,实现了KV缓存的动态分页管理。这意味着,当模型处理大量数据时,不再需要一次性占用连续的显存空间,而是像拼积木一样,动态分配所需的显存块。在实际应用中,相较于传统方案,vLLM的内存利用率提升高达24倍,这使得在有限的显存条件下,也能高效运行大模型,大大降低了硬件门槛。

2、吞吐量王者

vLLM在推理速度上堪称王者。它支持连续批处理(Continuous Batching)和异步推理,就像一位高效的流水线工人,在A100 GPU上实测,吞吐量可达HuggingFace Transformers的24倍。在处理长文本生成任务时,这种优势更为显著。连续批处理技术让vLLM无需等待前一批次推理完成,就能马不停蹄地接收新任务,充分榨干GPU的计算资源;异步推理则进一步提升了系统的并发处理能力,让多个推理任务并行执行,大大提高了整体处理效率。

3、无缝生态集成

生态兼容性是vLLM的又一亮点。它与HuggingFace模型库完美兼容,支持超过50种主流大模型,这使得开发者可以轻松将vLLM融入现有的基于HuggingFace的开发流程中。同时,vLLM通过OpenAI API兼容设计,为现有基于ChatGPT的应用提供了便捷的迁移路径。开发者无需大规模修改代码,就能将应用迁移到使用vLLM框架的DeepSeek-R1-Distill-Qwen大语言模型上,极大地降低了技术迁移成本。

4、分布式推理支持

对于大规模推理任务,vLLM采用张量并行(Tensor Parallelism)技术,支持多GPU分布式推理。在4*A100的环境下实测,推理速度提升3.8倍。这就好比将多个小引擎组合成一个超级引擎,充分利用多块GPU的计算能力,实现大规模模型的快速推理,满足企业级应用对高并发、低延迟的需求。无论是在线服务还是离线分析场景,分布式推理都能显著提升系统性能和响应速度。

5、开源社区驱动

vLLM拥有活跃的开源社区,在GitHub上星标数已突破3.9万,官方Discord社区日活开发者超过500人。社区成员们积极交流经验、分享代码、提出建议,共同推动vLLM的发展。同时,vLLM持续保持每周3 - 5次的版本迭代更新,不断优化性能、修复漏洞、增加新功能,让开发者能够始终使用到最前沿的技术。

二、环境配置指南

1、基础环境要求

为了高效部署 DeepSeek-R1-Distill-Qwen,推荐使用 Ubuntu 22.04 LTS 操作系统、Python 3.12 环境、CUDA 12.1 与 PyTorch 2.3.0,并配备至少 24GB 显存的 NVIDIA GPU,以确保模型推理的高性能和稳定性。

2、安装相关依赖

# 配置清华镜像源加速下载
python -m pip install --upgrade pip
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

# 安装核心依赖包
pip install modelscope==1.22.3
pip install openai==1.61.0
pip install vllm==0.7.1

首先,将pip升级到最新版本,确保能使用最新的功能和特性。然后,将pip源配置为清华大学的镜像源,这样在下载依赖包时能显著提高下载速度,减少等待时间。接下来,依次安装核心依赖库。modelscope库提供灵活的模型下载和管理功能,方便获取DeepSeek-R1-Distill-Qwen模型;openai库用于与vLLM的OpenAI API兼容接口进行交互;vllm库则是本次部署的核心框架,实现高效的模型推理。

3、模型文件下载

from modelscope import snapshot_download
# 下载预训练模型并指定缓存路径
model_dir = snapshot_download('deepseek-ai/DeepSeek-R1-Distill-Qwen-7B', cache_dir='/root/autodl-tmp', revision='master')

这段代码用modelscope库的snapshot_download函数下载模型。deepseek-ai/DeepSeek-R1-Distill-Qwen-7B是模型在平台上的名字,cache_dir是你要把模型存到哪里,你可以自己改,revision='master’表示下最新版本。

三、模型推理实践

1、导入相关依赖包

from vllm import LLM, SamplingParams
from transformers import AutoTokenizer
import os
import json

# 自动下载模型时,指定使用modelscope; 否则,会从HuggingFace下载
os.environ['VLLM_USE_MODELSCOPE']='True'

2、定义LLM处理函数

def get_completion(prompts, model, tokenizer=None, max_tokens=8192, temperature=0.6, top_p=0.95, max_model_len=2048):
    stop_token_ids = [151329, 151336, 151338]
    # 创建采样参数。temperature 控制生成文本的多样性,top_p 控制核心采样的概率
    sampling_params = SamplingParams(temperature=temperature, top_p=top_p, max_tokens=max_tokens, stop_token_ids=stop_token_ids)
    # 初始化 vLLM 推理引擎
    llm = LLM(model=model, tokenizer=tokenizer, max_model_len=max_model_len,trust_remote_code=True)
    outputs = llm.generate(prompts, sampling_params)
return outputs

3、指定模型地址&定义消息

# 初始化 vLLM 推理引擎
model='/root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B' # 指定模型路径
# model="deepseek-ai/DeepSeek-R1-Distill-Qwen-7B" # 指定模型名称,自动下载模型
tokenizer = None
# 加载分词器后传入vLLM 模型,但不是必要的。
# tokenizer = AutoTokenizer.from_pretrained(model, use_fast=False) 

text = ["请帮我推荐一种深圳到北京的出行方式
", ] 
# 可用 List 同时传入多个 prompt,根据 DeepSeek 官方的建议,每个 prompt 都需要以 
 结尾,
#如果是数学推理内容,建议包含(中英文皆可):Please reason step by step, and put your final answer within oxed{}.

# messages = [
#     {"role": "user", "content": prompt+"
"}
# ]
# 作为聊天模板的消息,不是必要的。
# text = tokenizer.apply_chat_template(
#     messages,
#     tokenize=False,
#     add_generation_prompt=True
# )

4、获取输出结果

# 思考需要输出更多的 Token 数,max_tokens 设为 8K,根据 DeepSeek 官方的建议,temperature应在 0.5-0.7,推荐 0.6
outputs = get_completion(text, model, tokenizer=tokenizer, max_tokens=8192, temperature=0.6, top_p=0.95, max_model_len=2048) 

# 输出是一个包含 prompt、生成文本和其他信息的 RequestOutput 对象列表。
# 打印输出。
for output in outputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    if r"" in generated_text:
        think_content, answer_content = generated_text.split(r"")
    else:
        think_content = ""
        answer_content = generated_text
print(f"Prompt: {prompt!r}, Think: {think_content!r}, Answer: {answer_content!r}")

执行如下:

打印结果如下:

Prompt: '请帮我推荐一种深圳到北京的出行方式
', Think: '好的,我现在要帮用户推荐从深圳到北京的出行方式。用户之前已经问过这个问题,现在可能需要进一步的信息或不同的选项。首先,我得考虑用户的需求可能是什么。他们可能时间紧迫,或者喜欢不同的旅行风格。

深圳到北京的路线有很多,比如高铁、飞机、大巴,还有可能的自驾或者中转其他城市。我应该先列出几种主要的交通方式,然后详细说明每种方式的优缺点,这样用户可以根据自己的情况选择。

首先,高铁是最快的方式,时间大概4-5小时,而且舒适,还有直达的班次。但高铁需要提前预订,特别是节假日,可能要提前一到两周。高铁适合大多数用户,尤其是那些时间紧张或喜欢高铁舒适环境的人。

然后是飞机,深圳有机场,北京有首都机场和大兴机场。飞机时间大约2-3小时,但价格比较高,而且航班可能比较紧张,尤其是热门季节。如果用户喜欢 direct flight,或者时间不够,飞机是个不错的选择。

接下来是大巴,虽然时间较长,但价格便宜,而且在车上可以睡觉,体验更像旅行。但大巴的班次可能不如高铁频繁,而且在大站之间可能比较慢,适合预算有限的用户。

另外,用户可能还考虑是否需要中转。比如从深圳飞到上海,再转到北京,或者深圳到天津再到北京。这样的路线可能在价格上更有优势,但时间会更长,可能不太适合时间紧张的用户。

如果用户喜欢自驾,可以考虑从深圳到北京自驾,但需要考虑时间、路线、油费等因素,而且北京的限行政策可能需要提前了解。

还有,是否有直达的高铁?比如深圳北站到北京西站的G字头列车,这可能是一个快速的选择。如果用户对高铁比较熟悉,这样的选择会很方便。

我还需要提醒用户注意一些细节,比如高铁需要提前订票,尤其是节假日,可能会有 seat changes 的限制。飞机方面,提前预订机票,选择合适的航班,避免延误。

另外,北京的天气可能在冬季较冷,用户可能需要带保暖衣物,或者考虑是否需要提前预订住宿。

综合考虑,我应该推荐高铁作为首选,因为时间快、舒适,然后飞机作为替代,接着是大巴,最后是中转或自驾。这样用户可以根据自己的情况和预算做出选择。
', Answer: '

深圳到北京的出行方式多样,您可以根据自己的时间和预算选择最适合的方式。以下是几种主要的出行方式推荐:

### 1. **高铁**
   - **优点**:时间最短,约4-5小时,舒适,直达。
   - **缺点**:需要提前预订,节假日可能需要提前一到两周。
   - **推荐理由**:如果时间紧张且喜欢高铁的舒适性,高铁是最佳选择。

### 2. **飞机**
   - **优点**:时间较短,约2-3小时,直达。
   - **缺点**:价格较高,航班可能紧张,尤其是节假日。
   - **推荐理由**:如果您喜欢 direct flight,或者时间不够,飞机是一个不错的选择。

### 3. **大巴**
   - **优点**:价格便宜,时间较长(约8-12小时),适合预算有限的用户。
   - **缺点**:班次可能不如高铁频繁,体验可能更像旅行。
   - **推荐理由**:如果预算有限且时间允许,大巴是一个经济的选择。

### 4. **中转**
   - 深圳到北京的高铁和飞机主要班次都从北京西站或首都机场出发,您也可以选择中转,例如:
     - 深圳飞上海或天津,再转乘高铁或飞机到北京。
     - 深圳飞天津或上海,再转乘高铁到北京。
   - **优点**:价格可能更优惠,适合预算有限的用户。
   - **缺点**:时间会更长,建议提前规划。

### 5. **自驾**
   - **优点**:时间灵活,可以体验沿途风光。
   - **缺点**:需要考虑时间和路线,油费等额外费用。
   - **推荐理由**:如果喜欢自驾,可以选择从深圳出发,沿京昆高速、京沪高速等行驶到北京。

### 6. **其他方式**
   - **公共交通**:深圳有地铁、公交等,但直接到北京可能不太方便。
   - **共享出行**:如网约车服务(如滴滴出行、出租车等),方便灵活。

### 建议:
- **时间紧迫且喜欢高铁**:高铁是最佳选择。
- **喜欢 direct flight**:飞机是不错的选择。
- **预算有限**:大巴或中转是更好的选择。

希望这些信息能帮助您选择合适的出行方式!如果需要更详细的行程规划或预订建议,可以告诉我您的偏好,我会尽力帮助您。'

四、OpenAI API服务部署测试

DeepSeek-R1-Distill-Qwen 是一款高性能的蒸馏语言模型,它兼容 OpenAI API 协议,能够通过 vLLM 框架快速创建一个本地的 OpenAI API 服务器。vLLM 是一个开源的高效推理框架,专为大语言模型设计,支持多种优化技术,如 PagedAttention 算法,能够显著提升推理效率。启动的服务器默认监听 http://localhost:8000,支持以下功能:

  • Completions API:用于基本的文本生成任务,如生成文章、故事或邮件。
  • Chat Completions API:用于对话任务,如构建聊天机器人。

1、发布OpenAI API服务

部署服务器时,可以指定以下参数:
–host 和 --port:指定服务器地址和端口。
–model:指定模型路径。
–chat-template:指定聊天模板。
–served-model-name:指定服务模型的名称。
–max-model-len:指定模型的最大上下文长度。
以下是启动命令:

python -m vllm.entrypoints.openai.api_server 
  --model /root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B 
  --served-model-name DeepSeek-R1-Distill-Qwen-7B 
  --max-model-len=2048

服务启动如下:

此命令将启动一个本地服务器,监听 http://localhost:8000。

2、Completions API调用

from openai import OpenAI

client = OpenAI(base_url="http://localhost:8000/v1", api_key="sk-xxx")
response = client.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    prompt="简单介绍一下deepseek?
",
    max_tokens=1024
)
print(response.choices[0].text)

在这段代码中,使用openai库创建OpenAI客户端对象,指定base_url为本地启动的vLLM服务地址http://localhost:8000/v1api_key为任意值(因为在本地测试,这里主要用于满足接口格式要求)。然后,调用client.completions.create方法,传入模型名称、提示词和最大生成token数,获取模型的推理结果,并打印生成的文本。如果在调用过程中出现错误,可能是因为服务未启动、参数设置错误等原因,需要仔细排查。

模型响应输出如下

好的,我现在要介绍一下DeepSeek。首先,我得快速浏览一下用户提供的内容,了解DeepSeek的基本信息。DeepSeek是一家专注实现AGI的中国的人工智能公司,由深度求索人工智能研究院成立,致力于AGI研究和落地。

我知道AGI指的是通用人工智能,即在智力上超越人类的人工智能系统,具有自主学习、推理、解决问题等能力。所以DeepSeek的项目目标就是实现这一点。接下来,他们的研究领域包括认知科学、计算机科学、量子计算、脑机接口和元学习,这些都是AGI研究的重要方向。

然后看了一下他们的方向,包括认知建模与理解、自由意志与决策、量子计算与算力提升、脑机交互与意识提升、元学习与自适应学习。这些听起来比较广泛,涵盖了多个技术领域。技术能力方面提到了自然语言处理、计算机视觉、数值计算等,这些都是机器学习中的核心领域,特别是深度学习在这些方面的应用。

医疗、教育、 withdrawal这些应用领域,尤其是医疗和教育,都是AI应用的重要方向。医疗AI可以帮助诊断疾病,提高治疗效果;教育AI可以提供个性化学习体验,提高教育效率。

最后,他们的愿景是让用户与AI成为完美的协作伙伴,这可能意味着DeepSeek希望通过其技术帮助用户更高效地解决各种问题,提升生活质量和工作效率。

整体来看,DeepSeek是一家致力于实现AGI的公司,涉及多个技术领域,并且有明确的应用目标,这使得他们的 work likely 在AI领域有不错的影响力。如果有时间,我想深入了解它们的研究方法、取得的成果以及面临的挑战。

现在,我要检查一下是否理解正确,以及信息是否有遗漏。比如,DeepSeek的成立背景是什么?我需要确保“深度求索人工智能研究院”是其成立的背景,而非其他。此外,AGI的定义是否正确,是否有其他公司也在 chasing AGI?

另外,DeepSeek的具体技术手段是什么?是基于特定模型或算法的创新?提到的自然语言处理、计算机视觉等,这些具体如何实现AGI的目标?

在应用方面, withdraw的应用可能是指用户退出或其他功能,可能需要更正。此外,技术能力部分可能需要更详细地解释每个技术如何支持AGI。

总结来说,我需要确保在介绍中准确传达DeepSeek的核心目标、研究领域、技术能力以及应用,同时注意使用准确的专业术语,并保持逻辑清晰。
</think>

DeepSeek 是一家专注实现通用人工智能(AGI)的中国公司,由深度求索人工智能研究院成立于2023年。其目标是通过研究和实现AGI,推动人工智能技术的变革性发展。以下是DeepSeek的详细介绍:

1. **背景与目标**
   - **成立背景**:由深度求索人工智能研究院成立,致力于AGI研究和落地。
   - **核心目标**:实现AGI,即超越人类智力水平的人工智能系统,具备自主学习、推理和解决问题的能力。

2. **研究领域**
   - 涵盖认知科学、计算机科学、量子计算、脑机接口和元学习,涵盖多个关键领域,包括但不仅限于认知建模与理解、自由意志与决策、量子计算与算力提升、脑机交互与意识提升以及元学习与自适应学习。

3. **技术能力**
   - 应用于自然语言处理、计算机视觉、数值计算、元学习和强化学习等技术领域,推动新兴技术的发展,特别是深度学习在各领域的创新应用。

4. **应用领域**
   - **医疗**:通过AI提高诊断准确性和治疗效果,优化资源配置,提升医疗服务。
   - **教育**:提供个性化学习方案,提升学习体验和教育效率。
   - **其他**:DeepSeek 还探索在 withdrawals 行业的应用,如安全监控和应急响应等领域。

5. **愿景**
   - 让用户与AI成为完美的协作伙伴,提升生活质量和工作效率,实现人机完美的协作。

**补充说明**- **成立背景**:作为一家新兴的高科技公司,DeepSeek可能尚未获得广泛的关注,但其专注于AGI的研究,可能在量子计算、脑机接口等领域具备先发优势。
- **AGI挑战**:AGI的实现仍面临巨大挑战,包括技术突破、伦理问题和应用安全等,DeepSeek的进展值得持续关注。
- **技术手段**:具体的创新可能包括新型算法、硬件加速技术或跨学科的国际合作,以突破现有技术限制。

DeepSeek的成立标志着中国AI生态中的又一重要参与者,其目标不仅是技术突破,更是推动社会的整体发展。

3、Chat Completions API调用

chat_response = client.chat.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    messages=[{"role": "user", "content": "我买了10个苹果,给了你3个,自己吃了1个,还剩几个?"}]
)
print(chat_response.choices[0].message.content)

此代码用于调用Chat Completions API,通过client.chat.completions.create方法,传入模型名称和包含用户消息的列表,获取聊天模式下的推理结果,并打印模型生成的回答内容。在实际应用中,可以根据用户需求,优化提示词和消息列表,以获得更准确、更有用的回答。

模型响应输出如下

你买了总共10个苹果。

给了对方3个, yourself剩下10减去3等于7个苹果。

接着,自己又吃了1个苹果,剩下7减去1等于6个苹果。

所以,最终剩下6个苹果。
</think>

**解答:**

1. **总苹果数**:你最初有10个苹果。

2. **给对方3**( 10 - 3 = 7 )  
   你剩下7个苹果。

3. **自己吃了1**( 7 - 1 = 6 )  
   最终剩下6个苹果。

**答案:oxed{6}**

4、命令行调用OpenAI API接口

命令行调用示例如下:

curl http://localhost:8000/v1/completions 
    -H "Content-Type: application/json" 
    -d '{
        "model": "DeepSeek-R1-Distill-Qwen-7B",
        "prompt": "我买了10个苹果,给了你3个,自己吃了1个,还剩几个?
",
        "max_tokens": 1024,
        "temperature": 0
}'

执行结果如下:

五、最佳实践建议

1. 显存优化

对于配备24G显存的3090显卡,建议设置max_model_len=2048。因为模型长度与显存占用密切相关,合理设置max_model_len,可以避免因模型长度过大导致显存不足的问题,确保模型能够稳定运行。如果需要处理更长的文本,可以考虑增加显存或者优化模型结构。

2. 温度参数

在不同的任务场景下,合理调整温度参数(temperature)至关重要。对于创造性任务,如文本创作、故事生成等,建议将temperature设置为0.7 - 0.9,这样可以使生成的文本更加多样化和富有创意;对于逻辑推理任务,如数学计算、知识问答等,建议将temperature设置为0.3 - 0.5,以确保生成的文本更加准确和逻辑严谨。

总结

通过本文的详细介绍,你已经掌握了使用vLLM框架部署DeepSeek-R1-Distill-Qwen大语言模型的全流程。从vLLM框架的特性解析,到环境配置、模型部署、API接口测试,再到最佳实践建议,每一步都为你在大语言模型部署的道路上提供了坚实的指引。希望你在实际应用中,能够灵活运用这些知识,充分发挥vLLM和DeepSeek-R1-Distill-Qwen模型的优势,实现更多创新的应用。

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:我是寻道AI小兵,资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索。
📖 技术交流:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,加入技术交流群,开启编程探索之旅。
💘精心准备📚500本编程经典书籍、💎AI专业教程,以及高效AI工具。等你加入,与我们一同成长,共铸辉煌未来。
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我,让我们携手同行AI的探索之旅,一起开启智能时代的大门!

本文地址:https://www.vps345.com/3890.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 python MCP javascript 前端 chrome edge ssh 进程 操作系统 进程控制 Ubuntu llama 算法 opencv 自然语言处理 神经网络 语言模型 阿里云 网络 网络安全 网络协议 ubuntu deepseek Ollama 模型联网 API CherryStudio RTSP xop RTP RTSPServer 推流 视频 数据库 centos oracle 关系型 安全 分布式 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse 深度学习 YOLO 目标检测 计算机视觉 人工智能 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 android harmonyos typescript 鸿蒙 numpy java 面试 性能优化 jdk intellij-idea 架构 华为 开发语言 计算机网络 flutter Dell R750XS 笔记 C 环境变量 进程地址空间 sqlserver uni-app websocket .net 负载均衡 ssl github AI Agent docker jenkins gitee spring boot 后端 tomcat golang LDAP asm GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 HCIE 数通 maven intellij idea 智能路由器 外网访问 内网穿透 端口映射 容器 adb nginx 监控 自动化运维 windows 运维开发 node.js json html5 firefox Windsurf WSL win11 无法解析服务器的名称或地址 微服务 springcloud django flask web3.py vim ide tcp/ip macos DeepSeek-R1 API接口 c++ 产品经理 agi microsoft live555 rtsp rtp Hyper-V WinRM TrustedHosts web安全 Kali Linux 黑客 渗透测试 信息收集 vue3 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 c# ffmpeg 音视频 创意 社区 cpu 内存 实时 使用 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn 计算机外设 电脑 mac 软件需求 机器学习 react.js 前端面试题 持续部署 rust http c语言 qt stm32项目 单片机 stm32 pytorch transformer 科技 ai 个人开发 物联网 iot udp unity Qwen2.5-coder 离线部署 pycharm pip conda ollama llm chatgpt 大模型 llama3 Chatglm 开源大模型 php ping++ 前端框架 深度优先 图论 并集查找 换根法 树上倍增 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 jmeter 软件测试 r语言 数据挖掘 数据可视化 数据分析 RAID RAID技术 磁盘 存储 dba mysql 嵌入式硬件 LLM dify bash YOLOv8 NPU Atlas800 A300I pro spring apache 银河麒麟服务器操作系统 系统激活 pygame 小游戏 五子棋 Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 list 数据结构 软件工程 gitlab 漏洞 跨域 经验分享 学习方法 学习 安全威胁分析 vscode 1.86 ollama下载加速 IPMI Java unix 豆瓣 追剧助手 迅雷 nas 微信 弹性计算 云服务器 裸金属服务器 弹性裸金属服务器 虚拟化 kubernetes VMware安装Ubuntu Ubuntu安装k8s k8s https mysql离线安装 ubuntu22.04 mysql8.0 springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 openEuler unity3d 银河麒麟 kylin v10 麒麟 v10 企业微信 Linux24.04 deepin 混合开发 环境安装 JDK 网络穿透 僵尸进程 Nuxt.js SSH Linux Xterminal ESP32 Google pay Apple pay 开源 命令行 基础入门 编程 android studio 交互 DeepSeek gpu算力 express okhttp CORS zabbix 自动化 SSH 服务 SSH Server OpenSSH Server centos-root /dev/mapper yum clean all df -h / du -sh AIGC 实时音视频 远程工作 matlab 缓存 大模型微调 vscode 代码调试 ipdb 蓝耘科技 元生代平台工作流 ComfyUI 多进程 1024程序员节 腾讯云 远程 命令 执行 sshpass 操作 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 计算机 程序员 sqlite dubbo MS Materials ecmascript KVM gateway Clion Nova ResharperC++引擎 Centos7 远程开发 code-server MQTT mosquitto 消息队列 wireshark 测试工具 Ubuntu Server Ubuntu 22.04.5 echarts 信息可视化 网页设计 protobuf 序列化和反序列化 安装 数据库系统 pillow 硬件架构 shell kamailio sip VoIP 大数据 大数据平台 开机自启动 统信 国产操作系统 虚拟机安装 框架搭建 jar 串口服务器 Reactor 设计模式 C++ firewalld .netcore 强制清理 强制删除 mac废纸篓 remote-ssh cuda cudnn anaconda NFS 微信小程序 小程序 elasticsearch Ark-TS语言 云原生 pyqt java-ee 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 WebRTC gpt 爬虫 数据集 恒源云 程序人生 jupyter opensearch helm 嵌入式 linux驱动开发 arm开发 VMware安装mocOS VMware macOS系统安装 oceanbase 传统数据库升级 银行 大语言模型 LLMs Dify webrtc 指令 QQ 机器人 bot Docker opcua opcda KEPServer安装 oneapi 进程信号 idm 文件系统 路径解析 mongodb 系统架构 pdf gcc 多线程服务器 Linux网络编程 curl wget springsecurity6 oauth2 授权服务器 token sas FTP 服务器 devops springboot 设置代理 实用教程 系统开发 binder 车载系统 framework 源码环境 服务器部署ai模型 linux 命令 sed 命令 rabbitmq 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 visualstudio prometheus Trae IDE AI 原生集成开发环境 Trae AI 3d mcu 服务器繁忙 Kylin-Server 服务器安装 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 EasyConnect Cline nextjs react reactjs 流式接口 医疗APP开发 app开发 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 openwrt Deepseek ux 多线程 open Euler dde 统信UOS eNSP 网络规划 VLAN 企业网络 redis mybatis tcpdump hadoop mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 linux环境变量 搜索引擎 ssrf 失效的访问控制 minicom 串口调试工具 xrdp 远程桌面 远程连接 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 源码剖析 rtsp实现步骤 流媒体开发 Ubuntu 24.04.1 轻量级服务器 spring cloud NPS 雨云服务器 雨云 Docker Compose docker compose docker-compose 能力提升 面试宝典 技术 IT信息化 环境迁移 ESXi Dell HPE 联想 浪潮 虚拟机 温湿度数据上传到服务器 Arduino HTTP 直播推流 TRAE Redis Desktop fpga开发 编辑器 鸿蒙系统 相差8小时 UTC 时间 docker命令大全 asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 驱动开发 kvm 无桌面 git gitea 媒体 微信公众平台 向日葵 C语言 WebUI DeepSeek V3 AI大模型 svn AI编程 信息与通信 状态管理的 UDP 服务器 Arduino RTOS ansible playbook 剧本 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 AI代码编辑器 wsl2 wsl bootstrap html web Socket asi_bench 博客 GCC crosstool-ng css 宕机切换 服务器宕机 微信开放平台 微信公众号配置 麒麟 bonding 链路聚合 rocketmq 压力测试 大模型面经 职场和发展 大模型学习 safari Mac 系统 ecm bpm virtualenv ddos 腾讯云大模型知识引擎 debian Samba NAS 微信分享 Image wxopensdk WSL2 ci/cd k8s集群资源管理 云原生开发 iDRAC R720xd CPU 主板 电源 网卡 freebsd PVE HarmonyOS Next zotero WebDAV 同步失败 代理模式 selete 高级IO 半虚拟化 硬件虚拟化 Hypervisor IIS .net core Hosting Bundle .NET Framework vs2022 DevEco Studio XFS xfs文件系统损坏 I_O error es jvm 测试用例 功能测试 micropython esp32 mqtt 部署 服务器配置 华为云 excel dell服务器 JAVA go threejs 3D 显示过滤器 ICMP Wireshark安装 YOLOv12 X11 Xming 集成学习 集成测试 生物信息学 minio sql KingBase VR手套 数据手套 动捕手套 动捕数据手套 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 av1 电视盒子 机顶盒ROM 魔百盒刷机 W5500 OLED u8g2 TCP服务器 数学建模 jetty undertow UOS 统信操作系统 yum rc.local 开机自启 systemd 命名管道 客户端与服务端通信 智能手机 Termux 音乐服务器 Navidrome 音流 kylin 华为od OD机试真题 华为OD机试真题 服务器能耗统计 ruoyi MQTT协议 消息服务器 代码 DeepSeek行业应用 Heroku 网站部署 低代码 ArcTS 登录 ArcUI GridItem arkUI postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 北亚数据恢复 oracle数据恢复 postgresql nuxt3 Cursor IIS服务器 IIS性能 日志监控 next.js 部署next.js 繁忙 解决办法 替代网站 汇总推荐 AI推理 CDN 语法 算力 Radius googlecloud npm qt项目 qt项目实战 qt教程 muduo 交叉编译 XCC Lenovo 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 其他 gpt-3 文心一言 安全架构 etcd 数据安全 RBAC ios windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 根服务器 clickhouse 实时互动 embedding 金融 社交电子 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 黑苹果 EMQX 通信协议 kafka hibernate sdkman skynet 策略模式 单例模式 计算虚拟化 弹性裸金属 序列化反序列化 chfs ubuntu 16.04 阿里云ECS 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? alias unalias 别名 LORA NLP 显示管理器 lightdm gdm kind 宝塔面板 同步 备份 建站 nvidia vue laravel 中间件 可信计算技术 网络攻击模型 grafana 直流充电桩 充电桩 大模型应用 junit 双系统 GRUB引导 Linux技巧 需求分析 规格说明书 bug 系统安全 p2p 源码 毕业设计 课程设计 IPv4 子网掩码 公网IP 私有IP Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 ArkTs ArkUI regedit 开机启动 火绒安全 seatunnel 京东云 大模型入门 HTTP 服务器控制 ESP32 DeepSeek aws 备选 网站 api 调用 示例 服务器主板 AI芯片 AD域 hive Hive环境搭建 hive3环境 Hive远程模式 反向代理 致远OA OA服务器 服务器磁盘扩容 less dns rpc 毕设 flash-attention 报错 vasp安装 边缘计算 智能硬件 查询数据库服务IP地址 SQL Server AI写作 prompt AutoDL 自学笔记 小米 澎湃OS Android arm fd 文件描述符 软负载 netty tcp 视觉检测 glibc rnn VMware创建虚拟机 华为认证 网络工程师 交换机 Linux环境 openssl 密码学 业界资讯 鲲鹏 tidb GLIBC 模拟退火算法 epoll 银河麒麟高级服务器 外接硬盘 Kylin 国产化 flink 华为机试 Python 移动魔百盒 Cookie USB转串口 CH340 AISphereButler 飞牛NAS 飞牛OS MacBook Pro 自定义客户端 SAS sqlite3 cnn selenium ukui 麒麟kylinos openeuler rust腐蚀 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 游戏程序 自动驾驶 Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer 回显服务器 UDP的API使用 ue4 着色器 ue5 虚幻 GPU 做raid 装系统 BMC Java Applet URL操作 服务器建立 Socket编程 网络文件读取 armbian u-boot 目标跟踪 OpenVINO 推理应用 大模型教程 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 gradle mamba Vmamba C# MQTTS 双向认证 emqx xml RustDesk自建服务器 rustdesk服务器 docker rustdesk ftp VPS 群晖 g++ g++13 链表 uniapp iphone 虚拟显示器 远程控制 c vscode1.86 1.86版本 ssh远程连接 cmos 硬件 iftop 网络流量监控 vSphere vCenter 软件定义数据中心 sddc RTMP 应用层 宝塔 camera Arduino 电子信息 DNS big data make命令 makefile文件 IDEA 飞书 DeepSeek r1 Open WebUI 孤岛惊魂4 实习 CLion lua sysctl.conf vm.nr_hugepages adobe eclipse 单一职责原则 网络编程 聊天服务器 套接字 TCP 客户端 游戏引擎 安卓 IPMITOOL 硬件管理 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 重启 排查 系统重启 日志 原因 open webui GoogLeNet spark HistoryServer Spark YARN jobhistory Headless Linux 音乐库 飞牛 asp.net大文件上传下载 cd 目录切换 iis VSCode 移动云 云服务 zookeeper MacOS录屏软件 nfs SSL 域名 rsyslog Anolis nginx安装 linux插件下载 ruby 图像处理 僵尸世界大战 游戏服务器搭建 银河麒麟操作系统 自动化任务管理 Linux PID easyui langchain 硬件工程 嵌入式实习 RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 docker run 数据卷挂载 交互模式 LInux ragflow v10 镜像源 软件 ldap 权限 串口驱动 CH341 uart 485 多个客户端访问 IO多路复用 TCP相关API yum源切换 更换国内yum源 模拟器 教程 技能大赛 黑客技术 mariadb URL 飞牛nas fnos 本地部署 架构与原理 技术共享 SysBench 基准测试 SSE LLM Web APP Streamlit 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors 网工 压测 ECS visual studio code MI300x string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 游戏服务器 TrinityCore 魔兽世界 Unity Dedicated Server Host Client 无头主机 开发环境 SSL证书 蓝桥杯 EMUI 回退 降级 升级 elk ui linux安装配置 mq vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 kali 共享文件夹 ip命令 新增网卡 新增IP 启动网卡 视频编解码 redhat 文件分享 自动化测试 性能测试 odoo 服务器动作 Server action 常用命令 文本命令 目录命令 崖山数据库 YashanDB 远程过程调用 Windows环境 DocFlow 单元测试 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 Docker Hub docker pull daemon.json midjourney Playwright 灵办AI 代码托管服务 监控k8s 监控kubernetes 5G 3GPP 卫星通信 nac 802.1 portal 远程看看 远程协助 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 图形化界面 risc-v eureka 佛山戴尔服务器维修 佛山三水服务器维修 ipython 软件构建 矩阵 swoole 三级等保 服务器审计日志备份 FTP服务器 服务器管理 配置教程 网站管理 qemu libvirt 干货分享 黑客工具 密码爆破 WebVM tensorflow trae efficientVIT YOLOv8替换主干网络 TOLOv8 软考 VS Code 网络结构图 yaml Ultralytics 可视化 matplotlib Linux的基础指令 DenseNet 工业4.0 联想开天P90Z装win10 Invalid Host allowedHosts ceph CrewAI AD 域管理 etl 网站搭建 serv00 Claude 并查集 leetcode 远程登录 telnet 执法记录仪 智能安全帽 smarteye AnythingLLM AnythingLLM安装 tailscale derp derper 中转 triton 模型分析 线性代数 电商平台 多层架构 解耦 互信 小智AI服务端 xiaozhi ASR TTS C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 历史版本 下载 深度求索 私域 知识库 Minecraft DOIT 四博智联 监控k8s集群 集群内prometheus frp 无人机 分析解读 cursor MCP server C/S windows日志 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 can 线程池 我的世界服务器搭建 minecraft thingsboard 安防软件 H3C 自动化编程 c/c++ 串口 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 支付 微信支付 开放平台 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 linux上传下载 MacMini 迷你主机 mini Apple 宠物 免费学习 宠物领养 宠物平台 ros2 moveit 机器人运动 磁盘监控 USB网络共享 小艺 Pura X 前后端分离 模拟实现 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 pgpool 端口测试 ssh漏洞 ssh9.9p2 CVE-2025-23419 田俊楠 FunASR SenseVoice file server http server web server vmware 卡死 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 王者荣耀 Wi-Fi Spring Security 版本 outlook IO模型 rdp 实验 n8n 工作流 workflow 7z 云电竞 云电脑 todesk Jellyfin 匿名管道 输入法 设备 PCI-Express 阻塞队列 生产者消费者模型 服务器崩坏原因 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 ISO镜像作为本地源 超融合 Erlang OTP gen_server 热代码交换 事务语义 MNN Qwen keepalived Ubuntu22.04 开发人员主页 ip perf 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 DBeaver 数据仓库 kerberos 网络用户购物行为分析可视化平台 大数据毕业设计 gaussdb chrome devtools chromedriver ROS 银河麒麟桌面操作系统 Kylin OS xss 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 xcode 服务网格 istio 游戏机 昇腾 npu pppoe radius openstack Xen hugo Netty 即时通信 NIO SWAT 配置文件 服务管理 网络共享 思科模拟器 思科 Cisco 键盘 saltstack 政务 分布式系统 监控运维 Prometheus Grafana 线程 AI作画 聊天室 Logstash 日志采集 ocr AI agent 嵌入式系统开发 显卡驱动 HarmonyOS OpenHarmony 真机调试 代理服务器 onlyoffice 在线office 鸿蒙开发 移动开发 程序 性能分析 捆绑 链接 谷歌浏览器 youtube google gmail 主从复制 物联网开发 人工智能生成内容 图形渲染 wsgiref Web 服务器网关接口 HAProxy 容器技术 sequoiaDB IM即时通讯 剪切板对通 HTML FORMAT edge浏览器 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 SEO OpenSSH vpn Ubuntu共享文件夹 共享目录 Linux共享文件夹 远程服务 seleium prometheus数据采集 prometheus数据模型 prometheus特点 相机 Typore docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos SSH 密钥生成 SSH 公钥 私钥 生成 对比 工具 meld Beyond Compare DiffMerge Windows 内网服务器 内网代理 内网通信 MacOS x64 SIGSEGV xmm0 企业网络规划 华为eNSP Mac内存不够用怎么办 webgl iperf3 带宽测试 查看显卡进程 fuser ArtTS lio-sam SLAM 考研 uv Node-Red 编程工具 流编程 wps chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 语音识别 私有化 玩机技巧 软件分享 软件图标 SVN Server tortoise svn 读写锁 AI Agent 字节智能运维 MySql wpf db CentOS 端口 查看 ss EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 deployment daemonset statefulset cronjob AI-native Docker Desktop HiCar CarLife+ CarPlay QT RK3588 yolov8 信创 信创终端 中科方德 webstorm su sudo harmonyOS面试题 邮件APP 免费软件 rag ragflow 源码启动 word 办公自动化 自动化生成 pdf教程 ardunio BLE deepseek r1 arcgis 钉钉 项目部署到linux服务器 项目部署过程 影刀 #影刀RPA# CVE-2024-7347 web3 pyautogui OpenManus autodl 抓包工具 运维监控 粘包问题 KylinV10 麒麟操作系统 Vmware 代理 iBMC UltraISO docker desktop image figma 极限编程 网络建设与运维 ros aarch64 编译安装 HPC Linux find grep 镜像 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 miniapp 调试 debug 断点 网络API请求调试方法 IMM python3.11 RAGFlow 树莓派 VNC bat 域名服务 DHCP 符号链接 配置 navicat docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 apt 国内源 信号处理 Attention fstab xpath定位元素 GIS 遥感 WebGIS 本地部署AI大模型 nlp 大大通 第三代半导体 碳化硅 ai工具 java-rocketmq nvm whistle AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 bcompare 内网环境 h.264 react native deep learning banner 强化学习 本地知识库部署 DeepSeek R1 模型 log4j 环境配置 rustdesk 网卡的名称修改 eth0 ens33 Kali cpp-httplib Xinference vr SRS 流媒体 直播 嵌入式Linux IPC 免费域名 域名解析 Deepseek-R1 私有化部署 推理模型 gnu win服务器架设 windows server 李心怡 dash 正则表达式 迁移指南 Linux的权限 中兴光猫 换光猫 网络桥接 自己换光猫 llama.cpp 金仓数据库 2025 征文 数据库平替用金仓 perl 多端开发 智慧分发 应用生态 鸿蒙OS sentinel 知识图谱 健康医疗 互联网医院 ubuntu24 vivado24 WLAN UOS1070e css3 换源 Debian 软链接 硬链接 状态模式 idea rclone AList webdav fnOS 元服务 应用上架 加解密 Yakit yaklang 软件卸载 系统清理 流水线 脚本式流水线 Python基础 Python教程 Python技巧 deekseek hexo 服务器时间 流量运营 visual studio jina 防火墙 NAT转发 NAT Server kotlin 问题解决 基础环境 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 composer 信号 top Linux top top命令详解 top命令重点 top常用参数 毕昇JDK ubuntu20.04 ros1 Noetic 20.04 apt 安装 开发 PX4 烟花代码 烟花 元旦 性能调优 安全代理 Unity插件 ssh远程登录 用户缓冲区 iventoy VmWare OpenEuler powerpoint cocoapods dity make 浏览器开发 AI浏览器 云桌面 微软 AD域控 证书服务器 个人博客 磁盘清理 渗透 rime ABAP 程序员创富 我的世界 我的世界联机 数码 ubuntu24.04.1 UDP rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 实战案例 searxng PPI String Cytoscape CytoHubba 游戏开发 neo4j firewall 存储维护 NetApp存储 EMC存储 带外管理 TrueLicense cfssl 抗锯齿 grub 版本升级 扩容 fast 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 大模型推理 sonoma 自动更新 trea xshell termius iterm2 数据库开发 database TCP协议 ShenTong dns是什么 如何设置电脑dns dns应该如何设置 拓扑图 产测工具框架 IMX6ULL 管理框架 聚类 MVS 海康威视相机 IMX317 MIPI H265 VCU 智能音箱 智能家居 P2P HDLC milvus QT 5.12.12 QT开发环境 Ubuntu18.04 分布式训练 proxy模式 合成模型 扩散模型 图像生成 虚拟局域网 热榜 云耀服务器 conda配置 conda镜像源 稳定性 看门狗 MDK 嵌入式开发工具 论文笔记 sublime text 大模型部署 离线部署dify 项目部署 本地化部署 数字证书 签署证书 推荐算法 智能电视 搭建个人相关服务器 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 hosts 达梦 DM8 端口聚合 windows11 服务器正确解析请求体 System V共享内存 进程通信 AI员工 rpa NLP模型 欧标 OCPP 接口优化 k8s二次开发 HarmonyOS NEXT 原生鸿蒙 IO Qwen2.5-VL vllm nosql MobaXterm 解决方案 CentOS Stream macOS 多路转接 docker部署Python yum换源 网络爬虫 沙盒 ranger MySQL8.0 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 开机黑屏 虚幻引擎 virtualbox Sealos 论文阅读 搜狗输入法 中文输入法 风扇控制软件 浏览器自动化 网络搭建 神州数码 神州数码云平台 云平台 DIFY yolov5 kernel vu大文件秒传跨域报错cors js dock 加速 西门子PLC 通讯