最新资讯

  • 【笔记】linux 本地部署deepseek大模型(离线版)

【笔记】linux 本地部署deepseek大模型(离线版)

2025-04-29 12:00:03 1 阅读

环境:Ubuntu14.04.3

工具:ollama

一、配置Ollama

1)在有网电脑上访问https://ollama.com/download/ollama-linux-amd64.tgz下载ollama的Linux压缩包,然后将压缩包复制到用户目录下。

2) 在安装包同一目录下,将文末install.sh文件添加进去。该文件进行了软件的安装,服务配置,环境变量配置,开机自启相关操作。

3) 运行安装

  chmod +x install.sh    #给脚本赋予执行权限

  ./install.sh

#如果报错误:bash: ./build_android.sh:/bin/sh^M:解释器错误: 没有那个文件或目录,执行下面命令后,再执行./install.sh命令

sed -i 's/ $//' install.sh

4) 配置Ollama远程访问

Ollama服务启动后,默认只可本地访问,访问地址:http:127.0.0.1:11434想要实现外部访问需要修改其配置文件。

vim /etc/systemd/system/ollama.service 写入以下内容

[Unit]

Description=Ollama Service

After=network-online.target

[Service]

ExecStart=/usr/local/bin/ollama serve

User=ollama

Group=ollama

Restart=always

RestartSec=3

Environment="OLLAMA_HOST=0.0.0.0:11434"  #设置OLLAMA_HOST=0.0.0.0环境变量,从而允许远程访问。

Environment="CUDA_VISIBLE_DEVICES=3,2" #多GPU 管理

Environment="OLLAMA_MODELS=/data/ollama/model" #设置模型路径

[Install]

WantedBy=default.target

5) 修改之后更新服务并重启

sudo systemctl daemon-reload

sudo systemctl restart ollama

#这里会因系统版本不同提示没有相关指令,离线情况下无法下载,遇到这种情况可查看对应环境版本解决问题也可在命令行单独运行命令,如:exprot OLLAMA_HOST=0.0.0.0:11434

6) 修改model文件夹权限

sudo chmod 777 /data/ollama/model

7) 验证Ollama服务是否正常运行

  运行以下命令,确保Ollama服务正在监听所有网络接口:命令语法:

sudo netstat -tulpn | grep ollama

测试远程访问

此时在浏览器中访问:http://0.0.0.0:11434出现如下页面即说明服务启动成功。

二、gguf下载及配置

1)从Huggingface下载GGUF文件 (需要在联网机上进行下载)

Huggingface是一个开放的人工智能模型库,提供了大量经过预训练的模型供用户下载和使用。要下载Llama模型的GGUF文件,请按照以下步骤操作:

   (1)访问Huggingface网站: https://huggingface.co/models。

   (2) 搜索GGUF模型:在搜索框中输入“deepseek gguf”或相关关键词。当前在huggingface上总共有以下几种参数的deepseek R1:

DeepSeek-R1 671B

DeepSeek-R1-Zero 671B

DeepSeek-R1-Distill-Llama-70B

DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-Qwen-14B

DeepSeek-R1-Distill-Llama-8B

DeepSeek-R1-Distill-Qwen-7B

DeepSeek-R1-Distill-Qwen-1.5B

选择GGUF文件:在模型页面中,找到Files and versions栏,选择你想要下载的GGUF文件版本。通常,不同版本的GGUF文件大小不同,对应着不同的模型效果和精度。如何选择版本:

GGUF文件名中的量化标识(例如Q4_K_M、Q5_K_S等)代表不同的量化方法:

Q2 / Q3 / Q4 / Q5 / Q6 / Q8: 量化的比特数(如Q4表示4-bit量化)。

K: 表示量化时使用了特殊的优化方法(如分组量化)。

后缀字母:表示量化子类型:

S (Small): 更小的模型体积,但性能损失稍大。

M (Medium): 平衡体积和性能。

L (Large): 保留更多精度,体积较大。

常见量化版本对比:

 a.资源有限(如低显存GPU/CPU):选择低比特量化(如Q4_K_M或Q3_K_S),牺牲少量精度换取更低的显存占用。

 b.平衡性能与速度:推荐Q4_K_M或Q5_K_S,适合大多数场景。

 c.追求最高质量:选择Q5_K_M或Q6_K,接近原始模型效果,但需要更多资源。

 d.完全无损推理:使用Q8_0(8-bit量化),但体积最大。

 (3)下载GGUF文件:点击下载按钮,将GGUF文件保存。注意事项:

      a.大模型文件(如7B参数的GGUF文件)体积较大(可能超过10GB),直接存储或传输可能不便,将单一大文件分割为多个小文件(例如拆分成9个分片),每个分片包含模型的一部分数据。必须下载全部9个文件(从00001到00009),并确保它们位于同一目录下。

      b.量化与性能关系:量化级别越低,模型回答的连贯性和逻辑性可能下降,尤其在复杂任务中(如代码生成、数学推理)。

      c.硬件兼容性:

     d.低量化模型(如Q2/Q3)更适合纯CPU推理。

     e.高量化模型(如Q5/Q6)在GPU上表现更好。

建议对不同量化版本进行实际测试,选择最适合你硬件和任务的版本。                 

2)配置模型                                           

(1)在/data/ollama/model下面新建一个模型名称文件夹(model为模型名称文件夹)

(2)把下载的gguf文件移进去,这里根据本机配置下载的是DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf

(3)新建一个Modelfile空白文件,指定GGUF模型文件的路径

FROM ./path/to/your-model.gguf

(4)创建Ollama模型:打开终端或命令行界面,运行以下命令来创建Ollama模型:

ollama create my_llama_model -f Modelfile

my_llama_model是为模型指定的名称,-f选项后面跟的是Modelfile文件的路径。

(5)检查模型是否创建成功

ollama list

(6)Ollama已经下载安装完成,执行以下命令启动服务

ollama serve

(7)查看Ollama服务是否成功启动

    ollama -v

(8)运行模型:一旦模型创建成功,可以使用以下命令来运行:

ollama run my_llama_model

三、可视化页面 --Chatbox

   在有网电脑上访问https://chatboxai.app/zh下载Chatbox AI,安装在需要的客户端机上,完成后进行如下设置,便可以开启聊天窗口了

install.sh

#!/bin/sh
# This script installs Ollama on Linux.
# It detects the current operating system architecture and installs the appropriate version of Ollama.
 
set -eu
 
 
status() { echo ">>> $*" >&2; }
error() { echo "ERROR $*"; exit 1; }
warning() { echo "WARNING: $*"; }
 
TEMP_DIR=$(mktemp -d)
cleanup() { rm -rf $TEMP_DIR; }
trap cleanup EXIT
 
available() { command -v $1 >/dev/null; }
require() {
    local MISSING=''
    for TOOL in $*; do
        if ! available $TOOL; then
            MISSING="$MISSING $TOOL"
        fi
    done
 
    echo $MISSING
}
 
[ "$(uname -s)" = "Linux" ] || error 'This script is intended to run on Linux only.'
 
ARCH=$(uname -m)
case "$ARCH" in
    x86_64) ARCH="amd64" ;;
    aarch64|arm64) ARCH="arm64" ;;
    *) error "Unsupported architecture: $ARCH" ;;
esac
 
IS_WSL2=false
 
KERN=$(uname -r)
case "$KERN" in
    *icrosoft*WSL2 | *icrosoft*wsl2) IS_WSL2=true;;
    *icrosoft) error "Microsoft WSL1 is not currently supported. Please use WSL2 with 'wsl --set-version  2'" ;;
    *) ;;
esac
 
VER_PARAM="${OLLAMA_VERSION:+?version=$OLLAMA_VERSION}"
 
SUDO=
if [ "$(id -u)" -ne 0 ]; then
    # Running as root, no need for sudo
    if ! available sudo; then
        error "This script requires superuser permissions. Please re-run as root."
    fi
 
    SUDO="sudo"
fi
 
NEEDS=$(require curl awk grep sed tee xargs)
if [ -n "$NEEDS" ]; then
    status "ERROR: The following tools are required but missing:"
    for NEED in $NEEDS; do
        echo "  - $NEED"
    done
    exit 1
fi
 
for BINDIR in /usr/local/bin /usr/bin /bin; do
    echo $PATH | grep -q $BINDIR && break || continue
done
OLLAMA_INSTALL_DIR=$(dirname ${BINDIR})
 
status "Installing ollama to $OLLAMA_INSTALL_DIR"
$SUDO install -o0 -g0 -m755 -d $BINDIR
$SUDO install -o0 -g0 -m755 -d "$OLLAMA_INSTALL_DIR"
#if curl -I --silent --fail --location "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" >/dev/null ; then
#注释掉以下代码
#    status "Downloading Linux ${ARCH} bundle"
#    curl --fail --show-error --location --progress-bar 
#        "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | 
#        $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
#    BUNDLE=1
#    if [ "$OLLAMA_INSTALL_DIR/bin/ollama" != "$BINDIR/ollama" ] ; then
#        status "Making ollama accessible in the PATH in $BINDIR"
#        $SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"
#    fi
#else
#    status "Downloading Linux ${ARCH} CLI"
#    curl --fail --show-error --location --progress-bar -o "$TEMP_DIR/ollama"
#    "https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}"
#    $SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $OLLAMA_INSTALL_DIR/ollama
#    BUNDLE=0
#    if [ "$OLLAMA_INSTALL_DIR/ollama" != "$BINDIR/ollama" ] ; then
#        status "Making ollama accessible in the PATH in $BINDIR"
#        $SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"
#    fi
#fi
#新增以下代码
LOCAL_OLLAMA_TGZ="./ollama-linux-${ARCH}.tgz${VER_PARAM}"
if [ -f "$LOCAL_OLLAMA_TGZ" ]; then
    status "Installing from local file $LOCAL_OLLAMA_TGZ"
    $SUDO tar -xzf "$LOCAL_OLLAMA_TGZ" -C "$OLLAMA_INSTALL_DIR"
    BUNDLE=1
    if [ ! -e "$BINDIR/ollama" ]; then
        status "Making ollama accessible in the PATH in $BINDIR"
        $SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"
    fi
else
    echo "Error: The local file $LOCAL_OLLAMA_TGZ does not exist."
    exit 1
fi
 
 
install_success() {
    status 'The Ollama API is now available at 127.0.0.1:11434.'
    status 'Install complete. Run "ollama" from the command line.'
}
trap install_success EXIT
 
# Everything from this point onwards is optional.
 
configure_systemd() {
    if ! id ollama >/dev/null 2>&1; then
        status "Creating ollama user..."
        $SUDO useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
    fi
    if getent group render >/dev/null 2>&1; then
        status "Adding ollama user to render group..."
        $SUDO usermod -a -G render ollama
    fi
    if getent group video >/dev/null 2>&1; then
        status "Adding ollama user to video group..."
        $SUDO usermod -a -G video ollama
    fi
 
    status "Adding current user to ollama group..."
    $SUDO usermod -a -G ollama $(whoami)
 
    status "Creating ollama systemd service..."
    cat </dev/null
[Unit]
Description=Ollama Service
After=network-online.target
 
[Service]
ExecStart=$BINDIR/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
 
[Install]
WantedBy=default.target
EOF
    SYSTEMCTL_RUNNING="$(systemctl is-system-running || true)"
    case $SYSTEMCTL_RUNNING in
        running|degraded)
            status "Enabling and starting ollama service..."
            $SUDO systemctl daemon-reload
            $SUDO systemctl enable ollama
 
            start_service() { $SUDO systemctl restart ollama; }
            trap start_service EXIT
            ;;
    esac
}
 
if available systemctl; then
    configure_systemd
fi
 
# WSL2 only supports GPUs via nvidia passthrough
# so check for nvidia-smi to determine if GPU is available
if [ "$IS_WSL2" = true ]; then
    if available nvidia-smi && [ -n "$(nvidia-smi | grep -o "CUDA Version: [0-9]*.[0-9]*")" ]; then
        status "Nvidia GPU detected."
    fi
    install_success
    exit 0
fi
 
# Install GPU dependencies on Linux
if ! available lspci && ! available lshw; then
    warning "Unable to detect NVIDIA/AMD GPU. Install lspci or lshw to automatically detect and install GPU dependencies."
    exit 0
fi
 
check_gpu() {
    # Look for devices based on vendor ID for NVIDIA and AMD
    case $1 in
        lspci)
            case $2 in
                nvidia) available lspci && lspci -d '10de:' | grep -q 'NVIDIA' || return 1 ;;
                amdgpu) available lspci && lspci -d '1002:' | grep -q 'AMD' || return 1 ;;
            esac ;;
        lshw)
            case $2 in
                nvidia) available lshw && $SUDO lshw -c display -numeric -disable network | grep -q 'vendor: .* [10DE]' || return 1 ;;
                amdgpu) available lshw && $SUDO lshw -c display -numeric -disable network | grep -q 'vendor: .* [1002]' || return 1 ;;
            esac ;;
        nvidia-smi) available nvidia-smi || return 1 ;;
    esac
}
 
if check_gpu nvidia-smi; then
    status "NVIDIA GPU installed."
    exit 0
fi
 
if ! check_gpu lspci nvidia && ! check_gpu lshw nvidia && ! check_gpu lspci amdgpu && ! check_gpu lshw amdgpu; then
    install_success
    warning "No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode."
    exit 0
fi
 
if check_gpu lspci amdgpu || check_gpu lshw amdgpu; then
    if [ $BUNDLE -ne 0 ]; then
        status "Downloading Linux ROCm ${ARCH} bundle"
        curl --fail --show-error --location --progress-bar 
            "https://ollama.com/download/ollama-linux-${ARCH}-rocm.tgz${VER_PARAM}" | 
            $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
 
        install_success
        status "AMD GPU ready."
        exit 0
    fi
    # Look for pre-existing ROCm v6 before downloading the dependencies
    for search in "${HIP_PATH:-''}" "${ROCM_PATH:-''}" "/opt/rocm" "/usr/lib64"; do
        if [ -n "${search}" ] && [ -e "${search}/libhipblas.so.2" -o -e "${search}/lib/libhipblas.so.2" ]; then
            status "Compatible AMD GPU ROCm library detected at ${search}"
            install_success
            exit 0
        fi
    done
 
    status "Downloading AMD GPU dependencies..."
    $SUDO rm -rf /usr/share/ollama/lib
    $SUDO chmod o+x /usr/share/ollama
    $SUDO install -o ollama -g ollama -m 755 -d /usr/share/ollama/lib/rocm
    curl --fail --show-error --location --progress-bar "https://ollama.com/download/ollama-linux-amd64-rocm.tgz${VER_PARAM}" 
        | $SUDO tar zx --owner ollama --group ollama -C /usr/share/ollama/lib/rocm .
    install_success
    status "AMD GPU ready."
    exit 0
fi
 
CUDA_REPO_ERR_MSG="NVIDIA GPU detected, but your OS and Architecture are not supported by NVIDIA.  Please install the CUDA driver manually https://docs.nvidia.com/cuda/cuda-installation-guide-linux/"
# ref: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#rhel-7-centos-7
# ref: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#rhel-8-rocky-8
# ref: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#rhel-9-rocky-9
# ref: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#fedora
install_cuda_driver_yum() {
    status 'Installing NVIDIA repository...'
    
    case $PACKAGE_MANAGER in
        yum)
            $SUDO $PACKAGE_MANAGER -y install yum-utils
            if curl -I --silent --fail --location "https://developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-$1$2.repo" >/dev/null ; then
                $SUDO $PACKAGE_MANAGER-config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-$1$2.repo
            else
                error $CUDA_REPO_ERR_MSG
            fi
            ;;
        dnf)
            if curl -I --silent --fail --location "https://developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-$1$2.repo" >/dev/null ; then
                $SUDO $PACKAGE_MANAGER config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-$1$2.repo
            else
                error $CUDA_REPO_ERR_MSG
            fi
            ;;
    esac
 
    case $1 in
        rhel)
            status 'Installing EPEL repository...'
            # EPEL is required for third-party dependencies such as dkms and libvdpau
            $SUDO $PACKAGE_MANAGER -y install https://dl.fedoraproject.org/pub/epel/epel-release-latest-$2.noarch.rpm || true
            ;;
    esac
 
    status 'Installing CUDA driver...'
 
    if [ "$1" = 'centos' ] || [ "$1$2" = 'rhel7' ]; then
        $SUDO $PACKAGE_MANAGER -y install nvidia-driver-latest-dkms
    fi
 
    $SUDO $PACKAGE_MANAGER -y install cuda-drivers
}
 
# ref: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#ubuntu
# ref: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#debian
install_cuda_driver_apt() {
    status 'Installing NVIDIA repository...'
    if curl -I --silent --fail --location "https://developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-keyring_1.1-1_all.deb" >/dev/null ; then
        curl -fsSL -o $TEMP_DIR/cuda-keyring.deb https://developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-keyring_1.1-1_all.deb
    else
        error $CUDA_REPO_ERR_MSG
    fi
 
    case $1 in
        debian)
            status 'Enabling contrib sources...'
            $SUDO sed 's/main/contrib/' < /etc/apt/sources.list | $SUDO tee /etc/apt/sources.list.d/contrib.list > /dev/null
            if [ -f "/etc/apt/sources.list.d/debian.sources" ]; then
                $SUDO sed 's/main/contrib/' < /etc/apt/sources.list.d/debian.sources | $SUDO tee /etc/apt/sources.list.d/contrib.sources > /dev/null
            fi
            ;;
    esac
 
    status 'Installing CUDA driver...'
    $SUDO dpkg -i $TEMP_DIR/cuda-keyring.deb
    $SUDO apt-get update
 
    [ -n "$SUDO" ] && SUDO_E="$SUDO -E" || SUDO_E=
    DEBIAN_FRONTEND=noninteractive $SUDO_E apt-get -y install cuda-drivers -q
}
 
if [ ! -f "/etc/os-release" ]; then
    error "Unknown distribution. Skipping CUDA installation."
fi
 
. /etc/os-release
 
OS_NAME=$ID
OS_VERSION=$VERSION_ID
 
PACKAGE_MANAGER=
for PACKAGE_MANAGER in dnf yum apt-get; do
    if available $PACKAGE_MANAGER; then
        break
    fi
done
 
if [ -z "$PACKAGE_MANAGER" ]; then
    error "Unknown package manager. Skipping CUDA installation."
fi
 
if ! check_gpu nvidia-smi || [ -z "$(nvidia-smi | grep -o "CUDA Version: [0-9]*.[0-9]*")" ]; then
    case $OS_NAME in
        centos|rhel) install_cuda_driver_yum 'rhel' $(echo $OS_VERSION | cut -d '.' -f 1) ;;
        rocky) install_cuda_driver_yum 'rhel' $(echo $OS_VERSION | cut -c1) ;;
        fedora) [ $OS_VERSION -lt '39' ] && install_cuda_driver_yum $OS_NAME $OS_VERSION || install_cuda_driver_yum $OS_NAME '39';;
        amzn) install_cuda_driver_yum 'fedora' '37' ;;
        debian) install_cuda_driver_apt $OS_NAME $OS_VERSION ;;
        ubuntu) install_cuda_driver_apt $OS_NAME $(echo $OS_VERSION | sed 's/.//') ;;
        *) exit ;;
    esac
fi
 
if ! lsmod | grep -q nvidia || ! lsmod | grep -q nvidia_uvm; then
    KERNEL_RELEASE="$(uname -r)"
    case $OS_NAME in
        rocky) $SUDO $PACKAGE_MANAGER -y install kernel-devel kernel-headers ;;
        centos|rhel|amzn) $SUDO $PACKAGE_MANAGER -y install kernel-devel-$KERNEL_RELEASE kernel-headers-$KERNEL_RELEASE ;;
        fedora) $SUDO $PACKAGE_MANAGER -y install kernel-devel-$KERNEL_RELEASE ;;
        debian|ubuntu) $SUDO apt-get -y install linux-headers-$KERNEL_RELEASE ;;
        *) exit ;;
    esac
 
    NVIDIA_CUDA_VERSION=$($SUDO dkms status | awk -F: '/added/ { print $1 }')
    if [ -n "$NVIDIA_CUDA_VERSION" ]; then
        $SUDO dkms install $NVIDIA_CUDA_VERSION
    fi
 
    if lsmod | grep -q nouveau; then
        status 'Reboot to complete NVIDIA CUDA driver install.'
        exit 0
    fi
 
    $SUDO modprobe nvidia
    $SUDO modprobe nvidia_uvm
fi
 
# make sure the NVIDIA modules are loaded on boot with nvidia-persistenced
if available nvidia-persistenced; then
    $SUDO touch /etc/modules-load.d/nvidia.conf
    MODULES="nvidia nvidia-uvm"
    for MODULE in $MODULES; do
        if ! grep -qxF "$MODULE" /etc/modules-load.d/nvidia.conf; then
            echo "$MODULE" | $SUDO tee -a /etc/modules-load.d/nvidia.conf > /dev/null
        fi
    done
fi
 
status "NVIDIA GPU ready."
install_success

参考:DeepSeek-R1本地部署实践_deepseek-r1-gguf-CSDN博客

本文地址:https://www.vps345.com/5501.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge python MCP 阿里云 网络 网络安全 网络协议 llama 算法 opencv 自然语言处理 神经网络 语言模型 ubuntu ssh deepseek Ollama 模型联网 API CherryStudio RTSP xop RTP RTSPServer 推流 视频 数据库 centos oracle 关系型 安全 分布式 进程 操作系统 进程控制 Ubuntu numpy harmonyos 华为 开发语言 typescript 计算机网络 flutter android 鸿蒙 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse 深度学习 YOLO 目标检测 计算机视觉 人工智能 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 java 面试 性能优化 jdk intellij-idea 架构 前端框架 django flask web3.py macos adb jmeter 软件测试 windows docker 产品经理 agi microsoft vim 容器 DeepSeek-R1 API接口 sqlserver live555 rtsp rtp Hyper-V WinRM TrustedHosts web安全 Kali Linux 黑客 渗透测试 信息收集 计算机外设 电脑 mac 软件需求 vue3 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 asm c# github AI Agent 创意 社区 Windsurf 机器学习 cpu 内存 实时 使用 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn react.js 前端面试题 node.js 持续部署 jenkins c语言 qt stm32项目 单片机 stm32 pytorch transformer 科技 ai 个人开发 Qwen2.5-coder 离线部署 物联网 iot udp unity tcp/ip 微服务 springcloud websocket pycharm ide c++ 笔记 C 环境变量 进程地址空间 pip conda ssl ollama llm chatgpt 大模型 llama3 Chatglm 开源大模型 php ping++ 运维开发 深度优先 图论 并集查找 换根法 树上倍增 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 Dell R750XS ffmpeg 音视频 vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 rust http uni-app .net 负载均衡 gitee spring boot golang 后端 tomcat GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 LDAP HCIE 数通 maven intellij idea nginx 监控 自动化运维 智能路由器 外网访问 内网穿透 端口映射 json html5 firefox WSL win11 无法解析服务器的名称或地址 云原生 kubernetes k8s集群资源管理 云原生开发 mysql 开源 pyqt java-ee 小程序 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 redis selete 高级IO 恒源云 vscode 编辑器 华为od OD机试真题 华为OD机试真题 服务器能耗统计 医疗APP开发 app开发 学习方法 经验分享 程序人生 jupyter VMware安装mocOS VMware macOS系统安装 opensearch helm 低代码 WebRTC gpt 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 okhttp oceanbase 传统数据库升级 银行 大语言模型 LLMs Dify wireshark 显示过滤器 安装 ICMP Wireshark安装 webrtc eNSP 网络规划 VLAN 企业网络 自动化 学习 AIGC oneapi linux环境变量 gcc mongodb pdf dba 系统开发 binder 车载系统 framework 源码环境 多线程服务器 Linux网络编程 android studio 1024程序员节 springsecurity6 oauth2 授权服务器 token sas FTP 服务器 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 debian Samba NAS prometheus k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm AI大模型 LLM 服务器部署ai模型 spring cloud zabbix raid5数据恢复 磁盘阵列数据恢复 Docker Compose docker compose docker-compose visualstudio list 数据结构 3d fpga开发 测试工具 mcu 鸿蒙系统 TRAE Trae IDE AI 原生集成开发环境 Trae AI 嵌入式硬件 dify EasyConnect Cline ecmascript nextjs react reactjs https 流式接口 AI编程 RAID RAID技术 磁盘 存储 tcpdump DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 apache Kylin-Server 国产操作系统 服务器安装 Deepseek postgresql GCC crosstool-ng ux 多线程 AI代码编辑器 Linux open Euler dde deepin 统信UOS Google pay Apple pay hadoop mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 交互 wsl2 wsl 搜索引擎 ssrf 失效的访问控制 bash openwrt rocketmq xrdp 远程桌面 远程连接 代码调试 ipdb gpu算力 Ubuntu 24.04.1 轻量级服务器 企业微信 Linux24.04 微信 微信分享 Image wxopensdk virtualenv NPS 雨云服务器 雨云 腾讯云大模型知识引擎 能力提升 面试宝典 技术 IT信息化 环境迁移 Redis Desktop 源码剖析 rtsp实现步骤 流媒体开发 信息与通信 直播推流 jar 向日葵 相差8小时 UTC 时间 Java 媒体 微信公众平台 excel C语言 gitlab springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 svn 串口服务器 状态管理的 UDP 服务器 Arduino RTOS word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 驱动开发 kvm 无桌面 命令行 git gitea matlab bootstrap html web Socket YOLOv8 NPU Atlas800 A300I pro asi_bench 计算机 YOLOv12 DeepSeek safari Mac 系统 系统架构 宕机切换 服务器宕机 VR手套 数据手套 动捕手套 动捕数据手套 麒麟 bonding 链路聚合 压力测试 ecm bpm HarmonyOS Next 多进程 mybatis 远程 命令 执行 sshpass 操作 ddos idm 数学建模 firewalld 命名管道 客户端与服务端通信 express KVM av1 电视盒子 机顶盒ROM 魔百盒刷机 iDRAC R720xd DevEco Studio freebsd PVE zotero WebDAV 同步失败 代理模式 微信小程序 ansible playbook ArcTS 登录 ArcUI GridItem IIS .net core Hosting Bundle .NET Framework vs2022 XFS xfs文件系统损坏 I_O error es jvm 测试用例 功能测试 部署 服务器配置 华为云 threejs 3D dell服务器 go 硬件架构 rabbitmq cuda cudnn anaconda Reactor 设计模式 C++ X11 Xming 集成学习 集成测试 生物信息学 openEuler Cursor minio spring sql KingBase 嵌入式 linux驱动开发 arm开发 pygame 小游戏 五子棋 jetty undertow 指令 UOS 统信操作系统 yum rc.local 开机自启 systemd 进程信号 跨域 软件工程 音乐服务器 Navidrome 音流 curl wget kylin ollama下载加速 服务器繁忙 智能手机 Termux SSH devops springboot ruoyi ESXi Dell HPE 联想 浪潮 MQTT协议 消息服务器 代码 设置代理 实用教程 DeepSeek行业应用 Heroku 网站部署 混合开发 环境安装 JDK 僵尸进程 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 linux 命令 sed 命令 ESP32 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 VMware安装Ubuntu Ubuntu安装k8s k8s mysql离线安装 ubuntu22.04 mysql8.0 asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 centos-root /dev/mapper yum clean all df -h / du -sh 温湿度数据上传到服务器 Arduino HTTP IIS服务器 IIS性能 日志监控 next.js 部署next.js 基础入门 编程 micropython esp32 mqtt SSH 服务 SSH Server OpenSSH Server nuxt3 缓存 剧本 minicom 串口调试工具 银河麒麟服务器操作系统 系统激活 蓝耘科技 元生代平台工作流 ComfyUI Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 r语言 数据挖掘 数据可视化 数据分析 博客 漏洞 docker命令大全 安全威胁分析 微信开放平台 微信公众号配置 vscode 1.86 Ubuntu Server Ubuntu 22.04.5 IPMI unix 豆瓣 追剧助手 迅雷 nas unity3d 银河麒麟 kylin v10 麒麟 v10 网络穿透 云服务器 Nuxt.js Xterminal elasticsearch Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 CORS NFS CPU 主板 电源 网卡 实时音视频 爬虫 数据集 大模型面经 职场和发展 大模型学习 远程工作 虚拟化 半虚拟化 硬件虚拟化 Hypervisor WebUI DeepSeek V3 大模型微调 腾讯云 sqlite dubbo MS Materials protobuf 序列化和反序列化 ci/cd gateway Clion Nova ResharperC++引擎 Centos7 远程开发 .netcore code-server MQTT mosquitto 消息队列 echarts 信息可视化 网页设计 数据库系统 pillow 文件系统 路径解析 shell kamailio sip VoIP 大数据 大数据平台 强制清理 强制删除 mac废纸篓 统信 虚拟机安装 虚拟机 框架搭建 W5500 OLED u8g2 TCP服务器 remote-ssh WSL2 其他 RAGFLOW 超融合 vmware 卡死 RustDesk自建服务器 rustdesk服务器 docker rustdesk CH340 串口驱动 CH341 uart 485 虚拟显示器 远程控制 自动化编程 docker run 数据卷挂载 交互模式 软件构建 cmos 硬件 ftp VPS ssh漏洞 ssh9.9p2 CVE-2025-23419 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 RAG 检索增强生成 文档解析 大模型垂直应用 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 重启 排查 系统重启 日志 原因 tcp vscode1.86 1.86版本 ssh远程连接 vSphere vCenter 软件定义数据中心 sddc 技能大赛 RTMP 应用层 ros2 moveit 机器人运动 big data 模拟器 教程 eureka 飞书 鲲鹏 昇腾 npu etl 孤岛惊魂4 Linux PID uniapp vue ai小智 语音助手 ai小智配网 ai小智教程 智能硬件 esp32语音助手 diy语音助手 sysctl.conf vm.nr_hugepages adobe 单一职责原则 kafka Python 网络编程 聊天服务器 套接字 TCP 客户端 IPMITOOL BMC 硬件管理 opcua opcda KEPServer安装 交换机 telnet 远程登录 open webui selenium 游戏服务器 TrinityCore 魔兽世界 Headless Linux perf 繁忙 解决办法 替代网站 汇总推荐 AI推理 linux安装配置 CDN 群晖 飞牛 asp.net大文件上传下载 kali 共享文件夹 hive DBeaver 数据仓库 kerberos 中间件 iis ui VSCode 移动云 网络用户购物行为分析可视化平台 大数据毕业设计 云服务 可信计算技术 密码学 游戏程序 EMUI 回退 降级 升级 系统安全 XCC Lenovo spark HistoryServer Spark YARN jobhistory zookeeper nfs visual studio code 安全架构 SSL 域名 rsyslog Anolis nginx安装 linux插件下载 openstack Xen embedding ruby rpc 僵尸世界大战 游戏服务器搭建 LInux 银河麒麟操作系统 国产化 skynet 硬件工程 嵌入式实习 灵办AI 阿里云ECS elk Logstash 日志采集 无人机 链表 LORA NLP v10 镜像源 软件 ldap Playwright 自动化测试 单元测试 nac 802.1 portal ROS 自动驾驶 课程设计 网络工程师 华为认证 黑客技术 图形化界面 机器人 URL 本地部署 api 架构与原理 多个客户端访问 IO多路复用 回显服务器 TCP相关API 程序员 SSE Linux环境 LLM Web APP Streamlit 服务器主板 AI芯片 政务 分布式系统 监控运维 Prometheus Grafana 蓝桥杯 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors 网工 网络结构图 yaml Ultralytics 可视化 压测 ECS css less 实时互动 tensorflow MI300x trae ceph Unity Dedicated Server Host Client 无头主机 开发环境 SSL证书 aws 多层架构 解耦 匿名管道 网络攻击模型 大模型应用 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 交叉编译 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 深度求索 私域 知识库 gpt-3 文心一言 IPv4 子网掩码 公网IP 私有IP redhat etcd 数据安全 RBAC 文件分享 视觉检测 金融 frp seatunnel 性能测试 odoo 服务器动作 Server action VMware创建虚拟机 常用命令 文本命令 目录命令 崖山数据库 YashanDB tidb GLIBC 序列化反序列化 视频编解码 分析解读 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 毕设 midjourney AI写作 Linux的基础指令 netty 代码托管服务 远程看看 远程协助 sqlite3 远程过程调用 Windows环境 报错 risc-v arm 双系统 GRUB引导 Linux技巧 小艺 Pura X wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 佛山戴尔服务器维修 佛山三水服务器维修 ipython swoole 三级等保 服务器审计日志备份 FTP服务器 MacMini 迷你主机 mini Apple GPU 宠物 毕业设计 免费学习 宠物领养 宠物平台 JAVA matplotlib 干货分享 黑客工具 密码爆破 历史版本 下载 gradle 软考 C# MQTTS 双向认证 emqx 联想开天P90Z装win10 Invalid Host allowedHosts glibc nvidia 执法记录仪 智能安全帽 smarteye tailscale derp derper 中转 triton 模型分析 矩阵 线性代数 电商平台 camera Arduino 电子信息 自学笔记 小米 澎湃OS Android 互信 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 软负载 prompt IDEA IO模型 n8n 工作流 workflow lua rnn ip命令 新增网卡 新增IP 启动网卡 cursor 7z MCP server C/S windows日志 输入法 c/c++ 串口 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 Minecraft DOIT 四博智联 thingsboard 宝塔面板 模拟实现 安防软件 音乐库 H3C 支付 微信支付 开放平台 g++ g++13 Cookie ArkTs ArkUI keepalived arkUI 开机自启动 服务网格 istio 磁盘监控 kind Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer chrome devtools chromedriver ue4 着色器 ue5 虚幻 前后端分离 SenseVoice 目标跟踪 OpenVINO 推理应用 xcode 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 mamba Vmamba QQ bot Docker FunASR ASR bug file server http server web server 线程 版本 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 技术共享 王者荣耀 Wi-Fi DNS Spring Security 宝塔 语法 mariadb rdp 实验 DeepSeek r1 Open WebUI cd 目录切换 CLion 云电竞 云电脑 todesk 黑苹果 sdkman 设备 PCI-Express SysBench 基准测试 eclipse 图像处理 阻塞队列 生产者消费者模型 服务器崩坏原因 游戏引擎 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 Ubuntu22.04 开发人员主页 ISO镜像作为本地源 策略模式 单例模式 Erlang OTP gen_server 热代码交换 事务语义 MNN Qwen ip 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 alias unalias 别名 银河麒麟桌面操作系统 Kylin OS xss 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 regedit 开机启动 键盘 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 游戏机 pppoe radius hugo Netty 即时通信 NIO SWAT 配置文件 服务管理 网络共享 源码 gaussdb 自动化任务管理 saltstack easyui langchain AI作画 聊天室 京东云 ragflow ocr 权限 AI agent Hive环境搭建 hive3环境 Hive远程模式 思科模拟器 思科 Cisco npm yum源切换 更换国内yum源 算力 Radius googlecloud ios qt项目 qt项目实战 qt教程 muduo flash-attention 飞牛nas fnos 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP fd 文件描述符 服务器管理 配置教程 网站管理 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 根服务器 clickhouse 社交电子 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 epoll EMQX 通信协议 hibernate 弹性计算 计算虚拟化 弹性裸金属 VS Code 工业4.0 移动魔百盒 chfs ubuntu 16.04 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? USB转串口 飞牛NAS 飞牛OS MacBook Pro 显示管理器 lightdm gdm AD 域管理 网站搭建 serv00 同步 备份 建站 cnn 5G 3GPP 卫星通信 DocFlow laravel mq grafana 直流充电桩 充电桩 junit 小智AI服务端 xiaozhi TTS 需求分析 规格说明书 裸金属服务器 弹性裸金属服务器 p2p 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 火绒安全 备选 网站 调用 示例 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 AD域 我的世界服务器搭建 minecraft 反向代理 致远OA OA服务器 服务器磁盘扩容 Docker Hub docker pull daemon.json dns 监控k8s 监控kubernetes 大模型入门 HTTP 服务器控制 ESP32 DeepSeek AnythingLLM AnythingLLM安装 make命令 makefile文件 vasp安装 边缘计算 c 查询数据库服务IP地址 SQL Server AutoDL iphone iftop 网络流量监控 Claude 实习 安卓 qemu libvirt pgpool WebVM 端口测试 田俊楠 efficientVIT YOLOv8替换主干网络 TOLOv8 openssl 业界资讯 模拟退火算法 DenseNet CrewAI flink GoogLeNet 华为机试 并查集 leetcode AISphereButler 自定义客户端 SAS can 线程池 银河麒麟高级服务器 外接硬盘 Kylin outlook rust腐蚀 Ark-TS语言 USB网络共享 监控k8s集群 集群内prometheus Jellyfin UDP的API使用 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 armbian u-boot 大模型教程 MacOS录屏软件 linux上传下载 xml ukui 麒麟kylinos openeuler 程序 性能分析 项目部署到linux服务器 项目部署过程 CVE-2024-7347 浏览器开发 AI浏览器 rustdesk autodl bcompare Beyond Compare 烟花代码 烟花 元旦 性能调优 安全代理 ros web3 RAGFlow 本地知识库部署 DeepSeek R1 模型 Ubuntu共享文件夹 共享目录 Linux共享文件夹 powerpoint 智能音箱 智能家居 dity make 环境配置 Kali 磁盘清理 IMM Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 python3.11 rime fstab 镜像 uv 嵌入式Linux IPC 实战案例 searxng 网络药理学 生信 PPI String Cytoscape CytoHubba IM即时通讯 剪切板对通 HTML FORMAT ubuntu20.04 ros1 Noetic 20.04 apt 安装 neo4j 知识图谱 中兴光猫 换光猫 网络桥接 自己换光猫 firewall 多端开发 智慧分发 应用生态 鸿蒙OS cfssl top Linux top top命令详解 top命令重点 top常用参数 TCP协议 抗锯齿 本地部署AI大模型 wsgiref Web 服务器网关接口 拓扑图 产测工具框架 IMX6ULL 管理框架 apt GIS 遥感 WebGIS 健康医疗 互联网医院 大大通 第三代半导体 碳化硅 Windows ai工具 java-rocketmq P2P HDLC Typore milvus react native QT 5.12.12 QT开发环境 Ubuntu18.04 edge浏览器 内网环境 h.264 聚类 元服务 应用上架 换源 国内源 Debian banner MVS 海康威视相机 强化学习 网卡的名称修改 eth0 ens33 cpp-httplib proxy模式 虚拟局域网 Deepseek-R1 私有化部署 推理模型 HarmonyOS 显卡驱动 deekseek onlyoffice 在线office OpenSSH SRS 流媒体 直播 SSH 密钥生成 SSH 公钥 私钥 生成 主从复制 dash 正则表达式 jina 人工智能生成内容 db 容器技术 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 composer iperf3 带宽测试 UOS1070e 信创 信创终端 中科方德 seleium 信号 css3 sentinel rclone AList webdav fnOS 开发 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 软件卸载 系统清理 对比 工具 meld DiffMerge lio-sam SLAM 加解密 Yakit yaklang KylinV10 麒麟操作系统 Vmware Node-Red 编程工具 流编程 wps ubuntu24.04.1 服务器时间 流量运营 AI-native Docker Desktop 程序员创富 HiCar CarLife+ CarPlay QT RK3588 yolov8 防火墙 NAT转发 NAT Server 读写锁 iBMC UltraISO vpn AI Agent 字节智能运维 办公自动化 自动化生成 pdf教程 端口 查看 ss aarch64 编译安装 HPC fast deployment daemonset statefulset cronjob EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 MacOS sonoma 自动更新 域名服务 DHCP 符号链接 配置 用户缓冲区 xshell termius iterm2 数据库开发 database PX4 树莓派 VNC arcgis ShenTong rag ragflow 源码启动 运维监控 cocoapods Mac内存不够用怎么办 word Unity插件 pyautogui iventoy VmWare OpenEuler IMX317 MIPI H265 VCU 合成模型 扩散模型 图像生成 渗透 Linux find grep 云桌面 微软 AD域控 证书服务器 钉钉 个人博客 代理 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 OpenManus 鸿蒙开发 移动开发 抓包工具 我的世界 我的世界联机 数码 UDP rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK OpenHarmony 真机调试 docker desktop image 带外管理 sequoiaDB 网络建设与运维 捆绑 链接 谷歌浏览器 youtube google gmail grub 版本升级 扩容 su sudo x64 SIGSEGV xmm0 图形渲染 游戏开发 trea idea miniapp 调试 debug 断点 网络API请求调试方法 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 prometheus数据采集 prometheus数据模型 prometheus特点 相机 大模型推理 xpath定位元素 bat dns是什么 如何设置电脑dns dns应该如何设置 win服务器架设 windows server deep learning docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 迁移指南 llama.cpp webgl 企业网络规划 华为eNSP 分布式训练 考研 nlp 嵌入式系统开发 代理服务器 私有化 玩机技巧 软件分享 软件图标 状态模式 SVN Server tortoise svn chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 log4j 金仓数据库 2025 征文 数据库平替用金仓 HAProxy 远程服务 Xinference vr MySql 物联网开发 SEO 免费域名 域名解析 harmonyOS面试题 邮件APP 免费软件 hexo ubuntu24 vivado24 ArtTS 李心怡 visual studio Linux的权限 内网服务器 内网代理 内网通信 perl 查看显卡进程 fuser nvm whistle Python基础 Python教程 Python技巧 WLAN deepseek r1 影刀 #影刀RPA# 毕昇JDK CentOS 粘包问题 软链接 硬链接 语音识别 wpf figma 基础环境 流水线 脚本式流水线 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 webstorm navicat ABAP Attention kotlin ssh远程登录 存储维护 NetApp存储 EMC存储 信号处理 TrueLicense 做raid 装系统 ardunio BLE 问题解决 gromacs 分子动力学模拟 MD 动力学模拟 Sealos 论文阅读 服务器正确解析请求体 AI员工 沙盒 HarmonyOS NEXT 原生鸿蒙 网络搭建 神州数码 神州数码云平台 云平台 西门子PLC 通讯 gnu 多路转接 Qwen2.5-VL vllm 搜狗输入法 中文输入法 nosql CentOS Stream 项目部署 推荐算法 DIFY dock 加速 MobaXterm yolov5 风扇控制软件 搭建个人相关服务器 ranger MySQL8.0 欧标 OCPP 热榜 js rpa IO 达梦 DM8 浏览器自动化 端口聚合 windows11 System V共享内存 进程通信 kernel NLP模型 接口优化 k8s二次开发 vu大文件秒传跨域报错cors MDK 嵌入式开发工具 论文笔记 sublime text 离线部署dify 本地化部署 极限编程 云耀服务器 解决方案 conda配置 conda镜像源 稳定性 看门狗 大模型部署 docker部署Python yum换源 数字证书 签署证书 macOS 网络爬虫 智能电视 开机黑屏 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR hosts 虚幻引擎 virtualbox