• 服务器本地微调Ministral-8B模型进行NLI任务

服务器本地微调Ministral-8B模型进行NLI任务

2025-05-02 14:57:15 0 阅读

主要流程

1. 前期准备

硬件方面需要一个较高配置的GPU,我这里使用的是A100,80G显存

(由于服务器连不上huggingface,我将模型下载好并上传到服务器进行本地训练)

模型下载

模型地址:https://huggingface.co/mistralai/Ministral-8B-Instruct-2410

下载模型之前需要先申请一下权限,通过之后,在Files and versions中下载模型相关文件,我直接下载了所有的文件。

下载好模型之后,可以通过scp指令上传到服务器中,比如我上传到服务器上的位置为:/home/user_m/models/Ministral-8B-Instruct-2410

数据集下载

与模型一样,由于无法连接到huggingface,我选择将数据集下载并上传到服务器中,我这里使用的数据集为 e-SNLI: https://huggingface.co/datasets/esnli/esnli

同样,将Files and versions中的文件下载并通过scp指令上传到服务器,我的数据集在服务器中的位置为:/home/user_m/DataSet/esnil

下面是数据集中一条数据的示例:

{
    "explanation_1": "A woman must be present to smile.",
    "explanation_2": "A woman smiling implies that she is present.",
    "explanation_3": "A smiling woman is also present.",
    "hypothesis": "A woman is present.",
    "label": 0,
    "premise": "A woman smiles at the child."
}

数据集内容:

  1. 前提(premise):一个给定的句子,作为推理的基础。
  2. 假设(hypothesis):需要根据前提进行推断的句子。
  3. 关系标签(label)
  4. 解释(explanation)
    • 对上述推理过程的自然语言解释,帮助模型理解推理的原因。
    • 解释的形式为人工标注,保证质量和清晰度

2. 使用peft进行微调

peft地址:https://huggingface.co/docs/peft/index

微调代码如下:
 

from copy import deepcopy
from argparse import ArgumentParser
from datasets import load_from_disk,load_dataset
import evaluate
import numpy as np
from peft import get_peft_model, LoraConfig, TaskType
from transformers import AutoTokenizer, DataCollatorWithPadding
from transformers import AutoModelForSequenceClassification
from transformers import TrainingArguments, Trainer, TrainerCallback
import torch

POS_WEIGHT, NEG_WEIGHT, NATURAL_WEIGHT = (1.1637114032405993, 0.8766697374481806, 1.0)

def get_args():
    parser = ArgumentParser(description="Fine-tune an LLM model with PEFT")
    parser.add_argument(
        "--data_path",
        type=str,
        default='/home/user_m/DataSet/esnil/esnli.py',
        required=True,
        help="Path to Huggingface pre-processed dataset",
    )
    parser.add_argument(
        "--output_path",
        type=str,
        default='/home/user_m/output',
        required=True,
        help="Path to store the fine-tuned model",
    )
    parser.add_argument(
        "--model_name",
        type=str,
        default='/home/user_m/models/Ministral-8B-Instruct-2410',
        required=True,
        help="Name of the pre-trained LLM to fine-tune",
    )
    parser.add_argument(
        "--max_length",
        type=int,
        default=128,
        required=False,
        help="Maximum length of the input sequences",
    )
    parser.add_argument(
        "--set_pad_id",
        action="store_true",
        help="Set the id for the padding token, needed by models such as Mistral-7B",
    )
    parser.add_argument(
        "--lr", type=float, default=2e-4, help="Learning rate for training"
    )
    parser.add_argument(
        "--train_batch_size", type=int, default=64, help="Train batch size"
    )
    parser.add_argument(
        "--eval_batch_size", type=int, default=64, help="Eval batch size"
    )
    parser.add_argument(
        "--num_epochs", type=int, default=2, help="Number of epochs"
    )
    parser.add_argument(
        "--weight_decay", type=float, default=0.1, help="Weight decay"
    )
    parser.add_argument(
        "--lora_rank", type=int, default=4, help="Lora rank"
    )
    parser.add_argument(
        "--lora_alpha", type=float, default=0.0, help="Lora alpha"
    )
    parser.add_argument(
        "--lora_dropout", type=float, default=0.2, help="Lora dropout"
    )
    parser.add_argument(
        "--lora_bias",
        type=str,
        default='none',
        choices={"lora_only", "none", 'all'},
        help="Layers to add learnable bias"
    )

    arguments = parser.parse_args()
    return arguments

def compute_metrics(eval_pred):
    precision_metric = evaluate.load("/home/user_m/evaluate/metrics/precision")
    recall_metric = evaluate.load("/home/user_m/evaluate/metrics/recall")
    f1_metric = evaluate.load("/home/user_m/evaluate/metrics/f1")
    accuracy_metric = evaluate.load("/home/user_m/evaluate/metrics/accuracy")


    logits, labels = eval_pred
    predictions = np.argmax(logits, axis=-1)
    precision = precision_metric.compute(predictions=predictions, references=labels,average='macro')["precision"]
    recall = recall_metric.compute(predictions=predictions, references=labels,average='macro')["recall"]
    f1 = f1_metric.compute(predictions=predictions, references=labels,average='macro')["f1"]
    accuracy = accuracy_metric.compute(predictions=predictions, references=labels)["accuracy"]
    return {"precision": precision, "recall": recall, "f1-score": f1, 'accuracy': accuracy}


class CustomCallback(TrainerCallback):
    def __init__(self, trainer) -> None:
        super().__init__()
        self._trainer = trainer

    def on_epoch_end(self, args, state, control, **kwargs):
        if control.should_evaluate:
            control_copy = deepcopy(control)
            self._trainer.evaluate(eval_dataset=self._trainer.train_dataset, metric_key_prefix="train")
            return control_copy


def get_dataset_and_collator(
    data_path,
    model_checkpoints,
    # add_prefix_space=True,
    max_length=128,
    truncation=True,
    set_pad_id=False
):
    """
    Load the preprocessed HF dataset with train, valid and test objects

    Paramters:
    ---------
    data_path: str
        Path to the pre-processed HuggingFace dataset
    model_checkpoints:
        Name of the pre-trained model to use for tokenization
    """
    data = load_dataset(data_path)

    tokenizer = AutoTokenizer.from_pretrained(
        model_checkpoints,
        # add_prefix_space=add_prefix_space
    )
    print("Tokenizer loaded successfully")
    tokenizer.pad_token = tokenizer.eos_token

    def _preprocesscing_function(examples):
        return tokenizer(examples["premise"],examples["hypothesis"], truncation=True, padding="max_length", max_length=max_length)

    col_to_delete = ['explanation_1', 'explanation_2','explanation_3', 'premise','hypothesis']
    tokenized_datasets = data.map(_preprocesscing_function, batched=False)
    tokenized_datasets = tokenized_datasets.remove_columns(col_to_delete)
    tokenized_datasets.set_format("torch")

    padding_collator = DataCollatorWithPadding(tokenizer=tokenizer)

    return tokenized_datasets, padding_collator


def get_lora_model(model_checkpoints, num_labels=3, rank=4, alpha=16, lora_dropout=0.1, bias='none'):
    """
    TODO
    """
    model =  AutoModelForSequenceClassification.from_pretrained(
            pretrained_model_name_or_path=model_checkpoints,
            num_labels=num_labels,
            device_map="auto",
            offload_folder="offload",
            trust_remote_code=True,
        )
    model.config.pad_token_id = model.config.eos_token_id

    peft_config = LoraConfig(
        task_type=TaskType.SEQ_CLS, r=rank, lora_alpha=alpha, lora_dropout=lora_dropout, bias=bias,
        target_modules=[
            "q_proj",
            "v_proj",
            # "score"
        ],
    )

    model = get_peft_model(model, peft_config)

    print(model.print_trainable_parameters())

    return model

def get_weighted_trainer(pos_weight, neg_weight,neutral_weight=1.0):
    class _WeightedBCELossTrainer(Trainer):
        def compute_loss(self, model, inputs, return_outputs=False,num_items_in_batch=None):
            labels = inputs.pop("labels")
            # forward pass
            outputs = model(**inputs)
            logits = outputs.get("logits")
            # compute custom loss (suppose one has 3 labels with different weights)
            loss_fct = torch.nn.CrossEntropyLoss(weight=torch.tensor([neg_weight, pos_weight, neutral_weight], device=labels.device, dtype=logits.dtype))
            loss = loss_fct(logits.view(-1, self.model.config.num_labels), labels.view(-1))
            return (loss, outputs) if return_outputs else loss
    return _WeightedBCELossTrainer

def main(args):
    """
    Training function
    """

    dataset, collator =  get_dataset_and_collator(
        args.data_path,
        args.model_name,
        max_length=args.max_length,
        set_pad_id=args.set_pad_id,
        # add_prefix_space=True,
        truncation=True,
    )


    training_args = TrainingArguments(
        output_dir=args.output_path,
        learning_rate=args.lr,
        lr_scheduler_type= "cosine",
        warmup_ratio= 0.1,
        per_device_train_batch_size=args.train_batch_size,
        per_device_eval_batch_size=args.eval_batch_size,
        num_train_epochs=args.num_epochs,
        weight_decay=args.weight_decay,
        evaluation_strategy="epoch",
        save_strategy="epoch",
        load_best_model_at_end=True,
        gradient_checkpointing=True,
        fp16=True,
        max_grad_norm= 0.3,
    )

    model = get_lora_model(
        args.model_name,
        rank=args.lora_rank,
        alpha=args.lora_alpha,
        lora_dropout=args.lora_dropout,
        bias=args.lora_bias
    )
    if args.set_pad_id:
        model.config.pad_token_id = model.config.eos_token_id

    # move model to GPU device
    if model.device.type != 'cuda':
        model=model.to('cuda')


    weighted_trainer = get_weighted_trainer(POS_WEIGHT, NEG_WEIGHT,NATURAL_WEIGHT)

    trainer = weighted_trainer(
        model=model,
        args=training_args,
        train_dataset=dataset['train'],
        eval_dataset=dataset["validation"],
        data_collator=collator,
        compute_metrics=compute_metrics
    )
    trainer.add_callback(CustomCallback(trainer))
    trainer.train()


if __name__ == "__main__":
    args = get_args()
    main(args)

3.整个过程中遇到的问题

3.1  raise ValueError("Cannot handle batch sizes > 1 if no padding token is defined.")
ValueError: Cannot handle batch sizes > 1 if no padding token is defined.

原因:

在加载tokenizer时,使用了padding

tokenizer.pad_token = tokenizer.eos_token
tokenizer(examples["premise"],examples["hypothesis"], truncation=True, padding="max_length", max_length=max_length)

虽然指定了tokenizer的pad_token,但是这个模型本身并没有默认的pad_token_id,导致模型认不出这个pad_token所以出现了报错.

解决办法:

在加载完模型之后,指定pad_token_id:

model =  AutoModelForSequenceClassification.from_pretrained(
            pretrained_model_name_or_path=model_checkpoints,
            num_labels=num_labels,
            device_map="auto",
            offload_folder="offload",
            trust_remote_code=True,
        )
model.config.pad_token_id = model.config.eos_token_id

这样模型就知道使用了eos_token作为pad_token

3.2 训练后评估accuracy很低

评估微调之后模型推理的accuracy时,发现正确率只有0.3多一点,对于三分类问题来说,这个准确率和瞎猜没有什么区别。。。我分析了我最开始进行训练的代码,发现了如下问题:

最初我进行训练的代码如下:
 

import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification
from datasets import load_dataset

from peft import get_peft_model, LoraConfig
from transformers import Trainer, TrainingArguments

import os

model_path = "/home/user_m/models/Ministral-8B-Instruct-2410"
tokenizer = AutoTokenizer.from_pretrained(model_path)

print(tokenizer.pad_token_id)
if tokenizer.pad_token_id is None:
    tokenizer.pad_token_id = tokenizer.eos_token_id
# 加载 ESNLI 数据集
dataset = load_dataset("/home/user_m/DataSet/esnil/esnli.py",trust_remote_code=True)

def preprocess_function(examples):
    # print(examples["label"])  # 打印标签查看
    return tokenizer(examples["premise"], examples["hypothesis"], padding='max_length' ,max_length = 128, truncation=True)
    # return tokenizer(examples["premise"], examples["hypothesis"])
encoded_dataset = dataset.map(preprocess_function, batched=True)
print(encoded_dataset)

# 使用Peft微调模型
# 设置 LoRA 配置
model = AutoModelForSequenceClassification.from_pretrained(model_path, num_labels=3)  # ESNLI 是三分类问题
model.config.pad_token_id = model.config.eos_token_id
lora_config = LoraConfig(
    r=8,  # LoRA的低秩大小
    lora_alpha=16,  # 标量
    lora_dropout=0.1,
    target_modules=["q_proj", "k_proj", "v_proj"],  # LoRA适用于的模块
)

# 获取 PEFT 模型
peft_model = get_peft_model(model, lora_config)
peft_model.print_trainable_parameters()

# 设置训练参数
training_args = TrainingArguments(
    output_dir="/home/user_m/output/round2",
    evaluation_strategy="epoch",
    save_strategy="epoch",
    learning_rate=1e-6,
    per_device_train_batch_size=32,
    per_device_eval_batch_size=32,
    fp16=True,
    num_train_epochs=1,
    weight_decay=0.01,
    logging_dir='/home/user_m/logs',
    logging_steps=10,
)

# 使用 Trainer 进行微调
trainer = Trainer(
    model=peft_model,
    args=training_args,
    train_dataset=encoded_dataset["train"],
    eval_dataset=encoded_dataset["validation"],
    tokenizer = tokenizer,
)

# 开始训练
trainer.train()

# 使用 Trainer 进行评估
results = trainer.evaluate()

然后每次加载完模型之后会出现以下信息:

Some weights of the model checkpoint at /home/user_m/models/Ministral-8B-Instruct-2410 were not used when initializing MistralForSequenceClassification: ['lm_head.weight']

Some weights of MistralForSequenceClassification were not initialized from the model checkpoint at /home/user_m/models/Ministral-8B-Instruct-2410 and are newly initialized: ['score.weight']
You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.

问题解决:

首先在代码开头加入如下内容:

from transformers import logging

logging.set_verbosity_info()

这行指令可以使得终端输出的信息更为详细,再次运行代码,加载完模型之后原本的信息变为:

大致意思是说,加载模型时,没有使用lm_head_weight这个权重,这是因为我们使用模型进行了其他的任务。并且加载模型时score.weight这个权重没有从模型的checkpoint中找到,所以模型对这一部分的权重重新进行了随机初始化。

我们加载完模型之后查看模型的config:

print("model.config: ",model.config)

 可以得到如下输出信息:

Model config MistralConfig {
  "_name_or_path": "/home/user_m/models/Ministral-8B-Instruct-2410",
  "architectures": [
    "MistralForCausalLM"
  ],
  "attention_dropout": 0.0,
  "bos_token_id": 1,
  "eos_token_id": 2,
  "head_dim": 128,
  "hidden_act": "silu",
  "hidden_size": 4096,
  "id2label": {
    "0": "LABEL_0",
    "1": "LABEL_1",
    "2": "LABEL_2"
  },
  "initializer_range": 0.02,
  "intermediate_size": 12288,
  "label2id": {
    "LABEL_0": 0,
    "LABEL_1": 1,
    "LABEL_2": 2
  },
  "max_position_embeddings": 32768,
  "model_type": "mistral",
  "num_attention_heads": 32,
  "num_hidden_layers": 36,
  "num_key_value_heads": 8,
  "rms_norm_eps": 1e-05,
  "rope_theta": 100000000.0,
  "sliding_window": 32768,
  "tie_word_embeddings": false,
  "torch_dtype": "bfloat16",
  "transformers_version": "4.46.3",
  "use_cache": true,
  "vocab_size": 131072
}

重点关注"architectures": ["MistralForCausalLM"],说明模型本身是用于进行LM任务的。

我们再使用AutoModelForCausalLM加载并查看模型:

model = AutoModelForCausalLM.from_pretrained(model_name)
print(model)

这次我们不再得到Some weights of the model checkpoint at /home/user_m/models/Ministral-8B-Instruct-2410 were not used when initializing MistralForSequenceClassification: ['lm_head.weight']这样的信息。

并且会得到以下输出信息:

可以看到模型的最后一层是一个lm_head线性层,这一层其实就是对应模型进行LM任务用的头,当我们使用AutoModelForCausalLM加载模型时,与原本模型任务一致,不会出现问题。

但是当我们使用AutoModelForSequenceClassification加载模型,并输出模型结构信息时:

model =  AutoModelForSequenceClassification.from_pretrained(
            pretrained_model_name_or_path=model_checkpoints,
            num_labels=num_labels,
            device_map="auto",
            offload_folder="offload",
            trust_remote_code=True,
        )
print(model)

就会出现Some weights of the model checkpoint at /home/user_m/models/Ministral-8B-Instruct-2410 were not used when initializing MistralForSequenceClassification: ['lm_head.weight']信息,且模型结构如下:

注意,可以看到模型最后一层由lm_head变成了score,这是因为使用AutoModelForSequenceClassification时,会自动给模型适配score分类头用于分类任务,所以再来分析提示信息:

Some weights of the model checkpoint at /home/user_m/models/Ministral-8B-Instruct-2410 were not used when initializing MistralForSequenceClassification: ['lm_head.weight']

Some weights of MistralForSequenceClassification were not initialized from the model checkpoint at /home/user_m/models/Ministral-8B-Instruct-2410 and are newly initialized: ['score.weight']
You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.

由于我们将模型用于SequenceClassification任务,原本的lm_head层被替换成了score层,这样使得原本checkpoint中lm_head相关权重没法加载,并且checkpoint中原本就并不存在score权重所以才会出现上述信息提示。由于从新初始化了score层,所以当模型计算到score层时,利用这个未经训练的分类头做最后一步输出,得到的结果类似于随机选择也并不奇怪。。。

问题解决:

在分析了代码后,我认为问题出在peft_config这里,这里需要指定任务类型task_type=TaskType.SEQ_CLS

peft_config = LoraConfig(
        task_type=TaskType.SEQ_CLS, r=rank, lora_alpha=alpha, lora_dropout=lora_dropout, bias=bias,
        target_modules=[
            "q_proj",
            "v_proj",
            # "score"
        ],
    )

这样训练之后,再次使用AutoModelForSequenceClassification加载模型时虽然还是会出现提示信息,但是这个信息是由于加载baseline模型出现的,在加载完baseline之后,会再加载peft相关权重信息,而score权重信息会由peft进行保存,所以进行评估时:

发现accuracy达到0.86,是一个合理的值,说明微调成功,问题解决!

总结来说,模型其实是包含两个部分,主体模型+处理相关任务的下游模型(比如lm_head、score等),将本来用于任务A的模型应用于任务B时,其实是会将处理A的下游模型替换为处理B的下游模型,所以如果我们希望模型能有良好的表现,就需要确保替换后的下游模型也是经过良好训练而不是随机初始化的,这一步需要在微调模型或训练模型时格外注意。

本文地址:https://www.vps345.com/7219.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge ubuntu ssh 阿里云 网络 网络安全 网络协议 llama 算法 opencv 自然语言处理 神经网络 语言模型 asm 数据库 centos oracle 关系型 安全 分布式 RTSP xop RTP RTSPServer 推流 视频 macos Dify deepseek Ollama 模型联网 API CherryStudio debian PVE C# MQTTS 双向认证 emqx 科技 ai java 人工智能 个人开发 python MCP 进程 操作系统 进程控制 Ubuntu adb harmonyos 华为 开发语言 typescript 计算机网络 经验分享 powerpoint 自动化 pycharm docker 容器 windows Flask FastAPI Waitress Gunicorn uWSGI Uvicorn json java-ee 数据结构 学习 c语言 笔记 学习方法 开源 github 实时音视频 实时互动 HarmonyOS Next DevEco Studio Qwen2.5-coder 离线部署 架构 云原生 etcd 数据安全 RBAC unix pip conda 机器学习 c++ 运维开发 ui 华为云 华为od EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 虚拟机 VMware 物联网 tcp/ip mcu iot 信息与通信 php android mysql 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 Dell R750XS jenkins gitee spring boot 嵌入式 linux驱动开发 arm开发 嵌入式硬件 vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 鸿蒙 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 rust http fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse ue5 vr filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 面试 性能优化 jdk intellij-idea ssl YOLO efficientVIT YOLOv8替换主干网络 TOLOv8 numpy 并查集 leetcode llm transformer 智能路由器 外网访问 内网穿透 端口映射 AI 爬虫 数据集 小程序 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 gpu算力 web安全 Kali Linux 黑客 渗透测试 信息收集 wireshark 显示过滤器 安装 ICMP Wireshark安装 向日葵 深度学习 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 vue3 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 微信 微信分享 Image wxopensdk MQTT协议 消息服务器 代码 rime vscode bug kubernetes 程序人生 低代码 ide 编辑器 代码调试 ipdb 中间件 iis c# 机器人 视觉检测 创意 社区 DeepSeek-R1 API接口 VMware创建虚拟机 live555 源码剖析 rtsp实现步骤 流媒体开发 无人机 git elasticsearch 电脑 .net nginx dify ESXi jellyfin nas cpu 内存 实时 使用 flutter Hyper-V WinRM TrustedHosts 后端 串口服务器 ip list 模拟实现 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 C语言 ipython 大数据 政务 分布式系统 监控运维 Prometheus Grafana 硬件工程 单片机 tcpdump DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 apache 系统架构 微服务 设计模式 软件工程 命名管道 客户端与服务端通信 ollama 大模型 mac 负载均衡 YOLOv8 NPU Atlas800 A300I pro asi_bench 数据挖掘 网络用户购物行为分析可视化平台 大数据毕业设计 1024程序员节 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 压测 ECS ESP32 camera Arduino 电子信息 统信UOS 麒麟 bonding 链路聚合 课程设计 Windsurf qt stm32项目 stm32 iperf3 带宽测试 bash docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos gitlab AI编程 C 环境变量 进程地址空间 dell服务器 go 代理模式 spring jar gradle golang flask AIGC websocket 深度求索 私域 知识库 https rocketmq firewalld react.js 前端面试题 node.js 持续部署 alias unalias 别名 Agent UOS 统信操作系统 yum oceanbase rc.local 开机自启 systemd 僵尸进程 ue4 着色器 虚幻 k8s chatgpt llama3 Chatglm 开源大模型 pytorch rag ragflow ragflow 源码启动 ddos JAVA Java spring cloud zotero WebDAV 同步失败 cuda cudnn anaconda ffmpeg 音视频 springcloud 温湿度数据上传到服务器 Arduino HTTP udp unity 目标检测 计算机视觉 YOLOv12 Samba NAS Linux 进程信号 CLion 远程连接 IDE ansible playbook 剧本 sql KingBase tomcat 博客 远程工作 webstorm 设置代理 实用教程 uni-app 迁移指南 gnu protobuf 序列化和反序列化 银河麒麟 kylin v10 麒麟 v10 权限 智能手机 Termux express p2p 游戏程序 ios postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 minicom 串口调试工具 测试工具 LDAP 高级IO epoll log4j aws googlecloud postgresql 腾讯云 vim maven intellij idea rpc 客户端 dubbo mq rabbitmq kafka .netcore VMware安装mocOS macOS系统安装 MacOS录屏软件 kamailio sip VoIP Ubuntu共享文件夹 共享目录 Linux共享文件夹 Docker Hub docker pull 镜像源 daemon.json 互信 产品经理 agi microsoft prometheus 监控k8s 监控kubernetes sqlserver rust腐蚀 系统开发 binder 车载系统 framework 源码环境 CPU 主板 电源 网卡 豆瓣 追剧助手 迅雷 前端框架 WebUI DeepSeek V3 DeepSeek AI大模型 Linux PID linux安装配置 vSphere vCenter 软件定义数据中心 sddc jmeter 软件测试 HCIE 数通 linux上传下载 gateway Clion Nova ResharperC++引擎 Centos7 远程开发 鸿蒙系统 网络药理学 生信 生物信息学 gromacs 分子动力学模拟 MD 动力学模拟 WSL2 计算机外设 软件需求 pillow selenium rtsp rtp html5 firefox ssh漏洞 ssh9.9p2 CVE-2025-23419 fstab Cline 自动化编程 WSL win11 无法解析服务器的名称或地址 ai小智 语音助手 ai小智配网 ai小智教程 智能硬件 esp32语音助手 diy语音助手 开发环境 ros2 moveit 机器人运动 RustDesk自建服务器 rustdesk服务器 docker rustdesk 黑客技术 流式接口 django web3.py 交换机 telnet 远程登录 URL 本地部署 api c pyqt 缓存 多层架构 解耦 rclone AList webdav fnOS Kylin-Server 国产操作系统 服务器安装 n8n dity make EasyConnect okhttp pygame ci/cd devops 图像处理 3d hadoop su sudo 分析解读 Google pay Apple pay 服务器主板 AI芯片 实战案例 ssrf 失效的访问控制 搜索引擎 searxng matplotlib android studio 交互 WebRTC gpt Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 openwrt dba virtualenv ux 多线程 zabbix ocr Python 网络编程 聊天服务器 套接字 TCP Socket webrtc composer redis 华为认证 网络工程师 拓扑图 消息队列 IM即时通讯 QQ 企业微信 剪切板对通 HTML FORMAT 产测工具框架 IMX6ULL 管理框架 xrdp 远程桌面 safari Mac 系统 LLM string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 游戏服务器 TrinityCore 魔兽世界 visual studio code SSL证书 firewall 信号 adobe 数据分析 VSCode 宠物 毕业设计 免费学习 宠物领养 宠物平台 云服务 odoo 服务器动作 Server action NPS 雨云服务器 雨云 springsecurity6 oauth2 授权服务器 token sas 小艺 Pura X excel 环境迁移 NFS redhat nvidia pdf 程序员 群晖 文件分享 程序 编程 性能分析 毕设 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 c/c++ 串口 shell 远程控制 远程看看 远程协助 kylin 银河麒麟操作系统 国产化 技能大赛 直播推流 sqlite3 聚类 rsyslog svn vue css less 三级等保 服务器审计日志备份 fd 文件描述符 VR手套 数据手套 动捕手套 动捕数据手套 虚拟局域网 媒体 微信公众平台 openvpn server openvpn配置教程 centos安装openvpn 支付 微信支付 开放平台 软考 jupyter matlab SenseVoice html 交叉编译 环境配置 网络结构图 gpt-3 文心一言 bootstrap 可信计算技术 安全架构 网络攻击模型 监控 linux环境变量 ecmascript nextjs react reactjs 显卡驱动 threejs 3D 压力测试 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors 远程 命令 执行 sshpass 操作 序列化反序列化 C++ 自动化运维 SSH 密钥生成 SSH 公钥 私钥 生成 yolov8 宕机切换 服务器宕机 Linux24.04 deepin tcp Kali 渗透 金融 idm xcode ShenTong ArcTS 登录 ArcUI GridItem arkUI MCP server C/S chrome devtools chromedriver 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 Docker Compose docker compose docker-compose 游戏引擎 线程 nac 802.1 portal ruoyi P2P HDLC 思科 Ubuntu22.04 虚拟化 开发人员主页 能力提升 面试宝典 技术 IT信息化 trea idea 树莓派 VNC QT 5.12.12 QT开发环境 Ubuntu18.04 双系统 GRUB引导 Linux技巧 TRAE thingsboard 其他 springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 域名服务 DHCP 符号链接 配置 HarmonyOS OpenHarmony 真机调试 相差8小时 UTC 时间 RAID RAID技术 磁盘 存储 lio-sam SLAM uv IIS .net core Hosting Bundle .NET Framework vs2022 XFS xfs文件系统损坏 I_O error 磁盘监控 集成学习 集成测试 小游戏 五子棋 状态管理的 UDP 服务器 Arduino RTOS KylinV10 麒麟操作系统 Vmware 服务器配置 多进程 openEuler sdkman 驱动开发 Alexnet gitea wps 安卓 web yaml Ultralytics 可视化 FunASR ASR file server http server web server KVM Invalid Host allowedHosts rdp 实验 iBMC UltraISO fpga开发 王者荣耀 minio Wi-Fi 办公自动化 自动化生成 pdf教程 DNS rnn mysql离线安装 ubuntu22.04 mysql8.0 Cookie 源码 SysBench 基准测试 混合开发 环境安装 JDK Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 微信小程序 arcgis mybatis 云电竞 云电脑 todesk 腾讯云大模型知识引擎 Deepseek 职场和发展 硬件 设备 GPU PCI-Express seatunnel VMware安装Ubuntu Ubuntu安装k8s 报错 hive Hive环境搭建 hive3环境 Hive远程模式 pyautogui 目标跟踪 OpenVINO 推理应用 conda配置 conda镜像源 ping++ 深度优先 图论 并集查找 换根法 树上倍增 centos-root /dev/mapper yum clean all df -h / du -sh 开机自启动 京东云 Linux的基础指令 命令行 基础入门 Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 代理 freebsd 开发 系统安全 gaussdb AI写作 prompt mamba Vmamba bot Docker x64 SIGSEGV SSE xmm0 DeepSeek行业应用 Heroku 网站部署 宝塔面板 部署 Typore flash-attention Reactor Dell HPE 联想 浪潮 mariadb next.js 部署next.js 聊天室 硬件架构 计算生物学 生物信息 基因组 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 思科模拟器 Cisco OpenManus 测试用例 功能测试 asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 宝塔 X11 Xming 蓝桥杯 飞牛NAS 飞牛OS MacBook Pro 银河麒麟服务器操作系统 系统激活 Node-Red 编程工具 流编程 矩阵 Ubuntu Server Ubuntu 22.04.5 英语 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 eureka banner xpath定位元素 工作流 workflow mongodb windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 Open WebUI 边缘计算 社交电子 工业4.0 安全威胁分析 linux 命令 sed 命令 网站搭建 serv00 jetty undertow 大语言模型 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 arm grafana 微信开放平台 微信公众号配置 IPMI springboot 链表 漏洞 iftop 网络流量监控 自动驾驶 SSH Xterminal 强制清理 强制删除 mac废纸篓 自动化任务管理 easyui langchain 弹性计算 云服务器 裸金属服务器 弹性裸金属服务器 游戏机 服务器管理 配置教程 网站管理 飞牛nas fnos xml hugo Netty 即时通信 NIO SWAT 配置文件 服务管理 网络共享 Ark-TS语言 yum源切换 更换国内yum源 单例模式 AutoDL cmos IIS服务器 IIS性能 日志监控 半虚拟化 硬件虚拟化 Hypervisor Xinference RAGFlow micropython esp32 mqtt 计算机 nuxt3 文件系统 路径解析 金仓数据库 2025 征文 数据库平替用金仓 ROS sqlite pgpool 指令 openssl 密码学 模拟退火算法 ros 田俊楠 r语言 数据可视化 ip命令 新增网卡 新增IP 启动网卡 code-server MQTT mosquitto 重启 排查 系统重启 日志 原因 免费域名 域名解析 算力 策略模式 5G 3GPP 卫星通信 Linux的权限 hibernate 服务器繁忙 大数据平台 跨域 CH340 串口驱动 CH341 uart 485 HarmonyOS NEXT 原生鸿蒙 echarts 信息可视化 网页设计 outlook ollama下载加速 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 大模型入门 大模型教程 remote-ssh 医疗APP开发 app开发 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 ukui 麒麟kylinos openeuler W5500 OLED u8g2 TCP服务器 elk chfs ubuntu 16.04 统信 虚拟机安装 bcompare Beyond Compare vnc 模拟器 教程 框架搭建 kind 同步 备份 建站 unity3d 本地部署AI大模型 网络穿透 VPS Nuxt.js npm 大模型面经 大模型学习 AnythingLLM AnythingLLM安装 蓝耘科技 元生代平台工作流 ComfyUI OD机试真题 华为OD机试真题 服务器能耗统计 CORS 飞书 dns 孤岛惊魂4 CrewAI kali 共享文件夹 恒源云 端口测试 RTMP 应用层 致远OA OA服务器 服务器磁盘扩容 智能音箱 智能家居 IPMITOOL BMC 硬件管理 opcua opcda KEPServer安装 oneapi 大模型微调 CentOS Stream CentOS 传统数据库升级 银行 LLMs 繁忙 解决办法 替代网站 汇总推荐 AI推理 单元测试 多线程服务器 Linux网络编程 移动云 MS Materials 信号处理 FTP 服务器 灵办AI kvm wsl 监控k8s集群 集群内prometheus 云桌面 微软 AD域控 证书服务器 ssh远程登录 AISphereButler embedding visualstudio k8s集群资源管理 云原生开发 nfs RAGFLOW 换源 国内源 Debian vmware 卡死 skynet tensorflow trae Trae AI代码编辑器 Redis Desktop lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 AI 原生集成开发环境 Trae AI 嵌入式实习 wsl2 maxkb ARG 项目部署到linux服务器 项目部署过程 jvm ftp Mermaid 可视化图表 deekseek h.264 网络建设与运维 网络搭建 神州数码 神州数码云平台 云平台 LLM Web APP Streamlit 网卡的名称修改 eth0 ens33 big data ip协议 opensearch helm 反向代理 figma MI300x PPI String Cytoscape CytoHubba 程序员创富 nlp 视频编解码 perf vscode1.86 1.86版本 ssh远程连接 open Euler dde DBeaver 数据仓库 kerberos cfssl TCP协议 cnn GoogLeNet 抗锯齿 SRS 流媒体 直播 saltstack 历史版本 下载 openstack Xen etl ceph MacMini 迷你主机 mini Apple milvus 大模型技术 本地部署大模型 崖山数据库 YashanDB 阿里云ECS Ubuntu 24.04.1 轻量级服务器 dash 正则表达式 tidb GLIBC Logstash 日志采集 make命令 makefile文件 图形化界面 僵尸世界大战 游戏服务器搭建 远程过程调用 Windows环境 docker run 数据卷挂载 交互模式 服务器部署ai模型 Anolis nginx安装 linux插件下载 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 swoole FTP服务器 v10 软件 上传视频文件到服务器 uniApp本地上传视频并预览 uniapp移动端h5网页 uniapp微信小程序上传视频 uniapp app端视频上传 uniapp uview组件库 selete 无桌面 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? 用户缓冲区 risc-v 强化学习 dock 镜像 加速 PX4 大模型应用 av1 电视盒子 机顶盒ROM 魔百盒刷机 磁盘清理 数学建模 架构与原理 联想开天P90Z装win10 eNSP 网络规划 VLAN 企业网络 多个客户端访问 IO多路复用 回显服务器 TCP相关API 内网环境 cocoapods 输入法 keepalived triton 模型分析 sonoma 自动更新 网工 容器技术 版本 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 gcc xshell termius iterm2 IPv4 子网掩码 公网IP 私有IP neo4j 数据库开发 database 人工智能生成内容 IDEA seleium 自动化测试 windows日志 服务网格 istio vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 DOIT 四博智联 GCC aarch64 编译安装 HPC Deepseek-R1 私有化部署 推理模型 信创 信创终端 中科方德 ruby Cursor 智能电视 性能测试 虚拟现实 对比 工具 meld DiffMerge 健康医疗 互联网医院 常用命令 文本命令 目录命令 python3.11 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 iDRAC R720xd 前后端分离 netty glibc 鸿蒙开发 移动开发 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 es 私有化 图形渲染 黑苹果 软负载 AI-native Docker Desktop sequoiaDB 键盘 佛山戴尔服务器维修 佛山三水服务器维修 技术共享 我的世界 我的世界联机 数码 嵌入式系统开发 prometheus数据采集 prometheus数据模型 prometheus特点 代理服务器 相机 我的世界服务器搭建 干货分享 黑客工具 密码爆破 执法记录仪 智能安全帽 smarteye jina 服务器时间 匿名管道 ecm bpm ISO镜像作为本地源 frp 软件构建 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 远程服务 webgl 音乐服务器 Navidrome 音流 本地化部署 cron crontab日志 Minecraft 考研 onlyoffice 在线office 运维监控 Erlang OTP gen_server 热代码交换 事务语义 MNN Qwen 鲲鹏 昇腾 npu 大模型部署 pppoe radius 玩机技巧 软件分享 软件图标 dns是什么 如何设置电脑dns dns应该如何设置 稳定性 看门狗 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 钉钉 H3C AI作画 MySql AI agent cd 目录切换 Qwen2.5-VL vllm IO模型 muduo 个人博客 miniapp 调试 debug 断点 网络API请求调试方法 HiCar CarLife+ CarPlay QT RK3588 apt uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 邮件APP 免费软件 ubuntu24.04.1 eclipse Doris搭建 docker搭建Doris Doris搭建过程 linux搭建Doris Doris搭建详细步骤 Doris部署 EMQX 通信协议 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK curl wget bat 端口 查看 ss 计算虚拟化 弹性裸金属 edge浏览器 ubuntu20.04 ros1 Noetic 20.04 apt 安装 fast 阻塞队列 生产者消费者模型 服务器崩坏原因 AD 域管理 word vscode 1.86 grub 版本升级 扩容 直流充电桩 充电桩 Web服务器 多线程下载工具 PYTHON junit crosstool-ng SEO hexo deep learning 显示管理器 lightdm gdm deepseek r1 实习 DIFY 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 iphone windows 服务器安装 minecraft HTTP 服务器控制 ESP32 DeepSeek 备选 网站 调用 示例 银河麒麟桌面操作系统 Kylin OS 毕昇JDK 语音识别 代码托管服务 navicat rustdesk vasp安装 UOS1070e 虚拟显示器 yolov5 DocFlow qt项目 qt项目实战 qt教程 业界资讯 小智AI服务端 xiaozhi TTS EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP Attention NLP Radius docker命令大全 RAG 检索增强生成 文档解析 大模型垂直应用 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 卷积神经网络 银河麒麟高级服务器 外接硬盘 Kylin 李心怡 物联网开发 根服务器 clickhouse 数据库系统 sublime text 做raid 装系统 docker部署Python Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 离线部署dify 知识图谱 spark cursor 企业网络规划 华为eNSP LInux 火绒安全 升级 CVE-2024-7347 内网服务器 内网代理 内网通信 Claude VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 zip unzip 软链接 硬链接 SSH 服务 SSH Server OpenSSH Server EMUI 回退 降级 DenseNet uniapp web3 qemu libvirt 嵌入式Linux IPC AD域 推荐算法 基础环境 流水线 脚本式流水线 北亚数据恢复 oracle数据恢复 can 线程池 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 多路转接 中兴光猫 换光猫 网络桥接 自己换光猫 open webui IMM ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS 沙盒 单一职责原则 virtualbox ArkTs ubuntu24 vivado24 HistoryServer Spark YARN jobhistory Headless Linux USB网络共享 Jellyfin Playwright XCC Lenovo asp.net大文件上传下载 wpf 虚幻引擎 centos 7 自定义客户端 SAS 进程优先级 调度队列 进程切换 元服务 应用上架 超融合 zookeeper flink Sealos SSL 域名 华为机试 UDP的API使用 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 Windows ai工具 ldap armbian u-boot 性能调优 安全代理 LORA fonts-noto-cjk GIS 遥感 WebGIS burp suite 抓包 大大通 第三代半导体 碳化硅 vu大文件秒传跨域报错cors cpp-httplib nftables 防火墙 风扇控制软件 sysctl.conf vm.nr_hugepages Zoertier 内网组网 db 云耀服务器 MVS 海康威视相机 搭建个人相关服务器 安装MySQL 本地知识库部署 DeepSeek R1 模型 proxy模式 lb 协议 compose 极限编程 OpenSSH Reactor反应堆 linux内核 热榜 7z 安卓模拟器 tailscale derp derper 中转 powerbi 主从复制 lua 话题通信 服务通信 本地环回 bind kernel NAT转发 NAT Server Unity Dedicated Server Host Client 无头主机 K8S k8s管理系统 欧标 OCPP lvm 磁盘挂载 磁盘分区 合成模型 扩散模型 图像生成 服务器安全 网络安全策略 防御服务器攻击 安全威胁和解决方案 程序员博客保护 数据保护 安全最佳实践 nvm whistle 桌面环境 midjourney Unity插件 iventoy VmWare OpenEuler css3 sentinel 项目部署 镜像下载 语法 WebServer Linux环境 ebpf uprobe ROS2 捆绑 链接 谷歌浏览器 youtube google gmail UDP deployment daemonset statefulset cronjob 加解密 Yakit yaklang 读写锁 AI Agent 字节智能运维 Spring Security g++ g++13 线性代数 电商平台 MDK 嵌入式开发工具 论文笔记 regedit 开机启动 大屏端 服务器正确解析请求体 音乐库 飞牛 shell脚本免交互 expect linux免交互 带外管理 k8s二次开发 集群管理 rpa 端口聚合 windows11 llama.cpp xss DeepSeek r1 查看显卡进程 fuser ArtTS System V共享内存 进程通信 NLP模型 自学笔记 小米 澎湃OS Android 移动魔百盒 USB转串口 harmonyOS面试题 状态模式 docker desktop image nosql top Linux top top命令详解 top命令重点 top常用参数 VS Code win服务器架设 windows server 游戏开发 docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 IMX317 MIPI H265 VCU 大模型推理 DevOps 软件交付 数据驱动 hosts IO AzureDataStudio 区块链 opengl Qualcomm WoS QNN AppBuilder 抓包工具 查询数据库服务IP地址 SQL Server 分布式训练 SVN Server tortoise svn 隐藏文件 隐藏目录 管理器 通配符 HAProxy ABAP perl laravel 存储维护 NetApp存储 EMC存储 像素流送api 像素流送UE4 像素流送卡顿 像素流送并发支持 Python基础 Python教程 Python技巧 axure 富文本编辑器 WLAN 智慧农业 开源鸿蒙 团队开发 GameFramework HybridCLR Unity编辑器扩展 自动化工具 需求分析 规格说明书 开机黑屏 react native 安防软件 autodl WebVM 网络爬虫 WSL2 上安装 Ubuntu UEFI Legacy MBR GPT U盘安装操作系统 vpn CDN 问题解决 kotlin TrueLicense 浏览器开发 AI浏览器 wsgiref Web 服务器网关接口 论文阅读 Mac内存不够用怎么办 rancher 烟花代码 烟花 元旦 java-rocketmq ardunio BLE 影刀 #影刀RPA# zerotier 华为证书 HarmonyOS认证 华为证书考试 通信工程 毕业 CosyVoice 西门子PLC 通讯 copilot fork wait waitpid exit MAVROS 四旋翼无人机 export import save load 迁移镜像 软件卸载 系统清理 机柜 1U 2U scapy 输入系统 python2 ubuntu24.04 内核 显示器 React Next.js 开源框架 ubuntu 18.04 csrutil mac恢复模式进入方法 恢复模式 VMware Tools vmware tools安装 vmwaretools安装步骤 vmwaretools安装失败 vmware tool安装步骤 vm tools安装步骤 vm tools安装后不能拖 vmware tools安装步骤 Apache Beam 批流统一 案例展示 数据分区 容错机制 网页服务器 web服务器 Nginx 联机 僵尸毁灭工程 游戏联机 开服 iNode Macos CNNs 图像分类 多产物 网络文件系统 netlink libnl3 弹性服务器 xfce docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 数字证书 签署证书 开源软件 硅基流动 ChatBox oracle fusion oracle中间件 macOS Mac软件 图片增强 增强数据 宝塔面板无法访问 流量运营 AI员工 国产数据库 瀚高数据库 数据迁移 下载安装 服务器扩容没有扩容成功 授时服务 北斗授时 stable diffusion 达梦 DM8 Linux find grep 视频平台 录像 视频转发 视频流 生活 服务器部署 本地拉取打包 搜狗输入法 中文输入法 lighttpd安装 Ubuntu配置 Windows安装 服务器优化 浪潮信息 AI服务器 粘包问题 Web应用服务器 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 Docker快速入门 NFC 近场通讯 智能门锁 解决方案 notepad qt5 客户端开发 tar Carla 智能驾驶 visual studio 跨平台 samba ranger MySQL8.0 mysql安装报错 windows拒绝安装 CPU 使用率 系统监控工具 linux 命令 yum换源 HP Anyware Linux权限 权限命令 特殊权限 MAC SecureCRT Linux 维护模式 mcp服务器 client close 代码规范 内网渗透 靶机渗透 电视剧收视率分析与可视化平台 浏览器自动化 MacOS java-rabbitmq ELF加载 cmake Helm k8s集群 scikit-learn nohup后台启动 错误代码2603 无网络连接 2603 iTerm2 终端 nacos 小智 js 工具分享 ubuntu安装 linux入门小白 ArkTS 移动端开发 联网 easyconnect 服务器ssl异常解决 配置原理 Pyppeteer Chatbox 动态规划 接口优化 Tabs组件 TabContent TabBar TabsController 导航页签栏 滚动导航栏 gunicorn MobaXterm WINCC ftp服务 文件上传 qps 高并发 glm4 录音麦克风权限判断检测 录音功能 录音文件mp3播放 小程序实现录音及播放功能 RecorderManager 解决录音报错播放没声音问题 ShapeFile GeoJSON 零售 deepseek-r1 大模型本地部署 笔灵AI AI工具 蓝桥杯C++组 文件传输 负载测试 蓝牙