• [Kaggle]:使用Kaggle服务器训练YOLOv5模型 (白嫖服务器)

[Kaggle]:使用Kaggle服务器训练YOLOv5模型 (白嫖服务器)

2025-05-07 10:57:07 63 阅读

           【核知坊】:释放青春想象,码动全新视野。          

            我们希望使用精简的信息传达知识的骨架,启发创造者开启创造之路!!!          


内容摘要最近需要使用 YOLOv5 框架训练一个识别模型,数据集有5000多张图片,直接在3000笔记本CPU上跑,怕是要几天。于是付费使用 OpenBayes 的云服务器,但云服务器使用价格较贵,配置重复。对小众需求者不太友好,于是我去 Kaggle 尝试了白嫖服务器,并成功训练了自己的模型。

关键词:YOLOv5 Kaggle 模型训练


其他相关文章:

⛏。。。

高性能云服务器OpenBayes


花钱去OpenBayes开云计算服务器进行模型训练,花钱训练的就是快,大内存可以直接配置 batch-size 批次 32 或者 64。头疼的的每次启动都要配置一下环境,下载一些依赖包(关闭会被清除,不清楚原因),正式开始使用之前都要花费10分钟时间。用了几天,花了我50块大洋后,心疼不已,于是去Kaggle看看能不能免费训练。

OpenBayes对新用户优惠力度很大,注册赠送 240 分钟 RTX 4090 使用时长+ 300 分钟高性能 CPU 使用时长。直接点击前往:signup - OpenBayes

Kaggle


Kaggle 是一个全球领先的数据科学和机器学习平台,由 Anthony Goldbloom 和 Ben Hamner 于 2010 年创立,并于 2017 年被 Google 收购,现为 Google LLC 的子公司。Kaggle 提供了一个在线社区,汇聚了来自世界各地的数据科学家和机器学习工程师,致力于通过竞赛、数据集分享和代码协作推动人工智能的发展。

🎁 Kaggle 每周福利:免费 GPU 使用

✅ 每周 30 小时免费 GPU 资源

Kaggle 为每位用户每周提供 30 小时 的免费 GPU 使用时间。这些 GPU 资源可用于在 Kaggle 的 Jupyter Notebook 环境中运行和训练模型。

💻 支持的 GPU 类型

Kaggle 提供的 GPU 类型包括:

  • NVIDIA Tesla P100:16GB 显存,适合大多数深度学习任务。

  • NVIDIA T4:15GB 显存,支持混合精度计算,适用于推理和训练任务。

用户可以在 Notebook 设置中选择所需的 GPU 类型。

⏱️ 使用限制

  • 单次运行时间:每次 Notebook 会话最长可运行 12 小时,超过时间将被强制中断。

  • 每周总时长:每位用户每周最多可使用 30 小时 的 GPU 资源。

🌟 Kaggle 的核心功能

1. 竞赛(Competitions)

Kaggle 的竞赛平台允许企业和研究机构发布实际问题和数据集,吸引全球的数据科学家参与解决。参赛者需在规定时间内提交模型,平台根据预设的评估指标(如准确率、AUC 等)进行排名。优胜者不仅可获得奖金,还可能获得与赞助企业合作的机会,甚至直接受聘于这些公司。PyTorch Tutorial

2.数据集(Datasets)

Kaggle 提供了丰富的开放数据集,涵盖自然语言处理、计算机视觉、金融分析等多个领域。用户可以浏览、下载这些数据集,用于学习、研究或项目开发。kaggle-china.com

3.代码共享(Code / Notebooks)

Kaggle 提供基于云的 Jupyter Notebook 环境,称为 Kernels,用户可以在其中编写、运行和分享代码,进行数据分析和模型训练。这促进了社区成员之间的协作与学习。kaggle-china.com

4.学习资源(Kaggle Learn)

Kaggle Learn 提供了一系列免费的微课程,涵盖 Python 编程、数据可视化、机器学习、深度学习等主题,帮助用户系统地提升技能。

数据集上传


数据集准备:

按照YOLO要求的格式,把数据集整理好后打包为 data.zip 压缩包:

登录或注册Kaggle后点击左侧导航栏 You Work :

点击 Create,选择 New Dataset:

点击 New Dataset:

右侧会出现上传界面,点击上传 data.zip 压缩包,该过程看你的数据大小,需要耐心等待。输入数据集名称,可以追加上传更多文件。最后点击右下角 Create 完成数据集创建。

创建成功后你可以在左侧导航栏的 You Work 内的 DataSets 看到所有你的数据集。

创建编辑器(NoteBook)


点击 Create,选择 New Notebook:

绑定数据集

进入界面后,点击右侧 +Add Input 按钮预览数据集,如果你预览过自己刚上传的数据库,就可以直接看到它,没有请去预览一下。

然后点击你的数据库选项右下角的 ➕ 号:

配置YOLOv5框架

现在开始,直接使用编辑器开始运行代码,服务器型号可以在 Settings->Accelerator 选择:

第一次运行代码时系统自动启动服务器

语法规则(英文):

  • shell 命令: 使用感叹号“!” 作为前缀,直接可以在编辑器中运行。

  • python 代码:直接写

拉取YOLOv5框架源码,等待下载完成:

 !git clone https://github.com/ultralytics/yolov5

完成后,你可以在右侧状态栏看到文件夹目录:

切换目录,进入yolov5框架,安装依赖:

# 切换工作目录
import os
os.chdir('/kaggle/working/yolov5')
!ls
!pip install -r requirements.txt

        现在,可以为所欲为了!!!但是Kaggel的编辑器不能在线编辑框架里的源码,所以我们直接使用整个文件内容替换命令:第一行 (%%writefile + 文件路径 ), 第一行下的所有内容会覆盖原始文件内容。我建议,自己在笔记本上修改,改好后直接复制粘贴。注意路径前缀 /kaggle/working/

配置数据集

%%writefile /kaggle/working/yolov5/data/coco128.yaml

path: /kaggle/input/handsdata

%%writefile /kaggle/working/yolov5/data/coco128.yaml
# 修改coco128
path: /kaggle/input/handsdata
train: images/train
val: images/val
nc: 1
names: ['Hand']

修改超参数文件(进阶,可选)

%%writefile /kaggle/working/yolov5/data/hyps/hyp.scratch-low.yaml
# 修改超参数文件
lr0: 0.01 # initial learning rate (SGD=1E-2, Adam=1E-3)
lrf: 0.01 # final OneCycleLR learning rate (lr0 * lrf)
momentum: 0.937 # SGD momentum/Adam beta1
weight_decay: 0.0005 # optimizer weight decay 5e-4
warmup_epochs: 3.0 # warmup epochs (fractions ok)
warmup_momentum: 0.8 # warmup initial momentum
warmup_bias_lr: 0.1 # warmup initial bias lr
box: 0.05 # box loss gain
cls: 0.5 # cls loss gain
cls_pw: 1.0 # cls BCELoss positive_weight
obj: 1.0 # obj loss gain (scale with pixels)
obj_pw: 1.0 # obj BCELoss positive_weight
iou_t: 0.20 # IoU training threshold
anchor_t: 4.0 # anchor-multiple threshold
# anchors: 3  # anchors per output layer (0 to ignore)
fl_gamma: 0.0 # focal loss gamma (efficientDet default gamma=1.5)
hsv_h: 0.015 # image HSV-Hue augmentation (fraction)
hsv_s: 0.7 # image HSV-Saturation augmentation (fraction)
hsv_v: 0.4 # image HSV-Value augmentation (fraction)
degrees: 0.0 # image rotation (+/- deg)
translate: 0.1 # image translation (+/- fraction)
scale: 0.5 # image scale (+/- gain)
shear: 0.0 # image shear (+/- deg)
perspective: 0.0 # image perspective (+/- fraction), range 0-0.001
flipud: 0.0 # image flip up-down (probability)
fliplr: 0.5 # image flip left-right (probability)
mosaic: 1.0 # image mosaic (probability)
mixup: 0.0 # image mixup (probability)
copy_paste: 0.0 # segment copy-paste (probability)

修改模型结构文件(进阶,可选)

%%writefile /kaggle/working/yolov5/models/yolov5n.yaml
# YOLOv5 🚀 by Ultralytics, GPL-3.0 license
# Parameters
nc: 1  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.25  # layer channel multiple
anchors:
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32
activation: nn.SiLU()
# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 1, C3, [128, 1]],  # 2
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 1, C3, [256, 1]],  # 4
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 1, C3, [512, 1]],  # 6
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 1, C3, [1024, 1]],  # 8
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 1, C3, [512, 1]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 1, C3, [256, 1]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 13], 1, Concat, [1]],  # cat head P4
   [-1, 1, C3, [512, 1]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 9], 1, Concat, [1]],  # cat head P5
   [-1, 1, C3, [1024, 1]],  # 23 (P5/32-large)

   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

配置模块输入参数(进阶,可选)

%%writefile /kaggle/working/yolov5/models/common.py
# 修改 common.py

# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
"""Common modules."""

import ast
import contextlib
import json
import math
import platform
import warnings
import zipfile
from collections import OrderedDict, namedtuple
from copy import copy
from pathlib import Path
from urllib.parse import urlparse

import cv2
import numpy as np
import pandas as pd
import requests
import torch
import torch.nn as nn
from PIL import Image
from torch.cuda import amp

# Import 'ultralytics' package or install if missing
try:
    import ultralytics

    assert hasattr(ultralytics, "__version__")  # verify package is not directory
except (ImportError, AssertionError):
    import os

    os.system("pip install -U ultralytics")
    import ultralytics

from ultralytics.utils.plotting import Annotator, colors, save_one_box

from utils import TryExcept
from utils.dataloaders import exif_transpose, letterbox
from utils.general import (
    LOGGER,
    ROOT,
    Profile,
    check_requirements,
    check_suffix,
    check_version,
    colorstr,
    increment_path,
    is_jupyter,
    make_divisible,
    non_max_suppression,
    scale_boxes,
    xywh2xyxy,
    xyxy2xywh,
    yaml_load,
)
from utils.torch_utils import copy_attr, smart_inference_mode


def autopad(k, p=None, d=1):
    """
    Pads kernel to 'same' output shape, adjusting for optional dilation; returns padding size.

    `k`: kernel, `p`: padding, `d`: dilation.
    """
    if d > 1:
        k = d * (k - 1) + 1 if isinstance(k, int) else [d * (x - 1) + 1 for x in k]  # actual kernel-size
    if p is None:
        p = k // 2 if isinstance(k, int) else [x // 2 for x in k]  # auto-pad
    return p

class Conv(nn.Module):
    """Applies a convolution, batch normalization, and activation function to an input tensor in a neural network."""

    default_act = nn.ReLU6()  # default activation

    def __init__(self, c1, c2, k=1, s=1, p=None, g=1, d=1, act=True):
        """Initializes a standard convolution layer with optional batch normalization and activation."""
        super().__init__()
        self.conv = nn.Conv2d(c1, c2, k, s, autopad(k, p, d), groups=g, dilation=d, bias=False)
        self.bn = nn.BatchNorm2d(c2)
        self.act = self.default_act if act is True else act if isinstance(act, nn.Module) else nn.Identity()

    def forward(self, x):
        """Applies a convolution followed by batch normalization and an activation function to the input tensor `x`."""
        return self.act(self.bn(self.conv(x)))

    def forward_fuse(self, x):
        """Applies a fused convolution and activation function to the input tensor `x`."""
        return self.act(self.conv(x))


class DWConv(Conv):
    """Implements a depth-wise convolution layer with optional activation for efficient spatial filtering."""

    def __init__(self, c1, c2, k=1, s=1, d=1, act=True):
        """Initializes a depth-wise convolution layer with optional activation; args: input channels (c1), output
        channels (c2), kernel size (k), stride (s), dilation (d), and activation flag (act).
        """
        super().__init__(c1, c2, k, s, g=math.gcd(c1, c2), d=d, act=act)


class DWConvTranspose2d(nn.ConvTranspose2d):
    """A depth-wise transpose convolutional layer for upsampling in neural networks, particularly in YOLOv5 models."""

    def __init__(self, c1, c2, k=1, s=1, p1=0, p2=0):
        """Initializes a depth-wise transpose convolutional layer for YOLOv5; args: input channels (c1), output channels
        (c2), kernel size (k), stride (s), input padding (p1), output padding (p2).
        """
        super().__init__(c1, c2, k, s, p1, p2, groups=math.gcd(c1, c2))


class TransformerLayer(nn.Module):
    """Transformer layer with multihead attention and linear layers, optimized by removing LayerNorm."""

    def __init__(self, c, num_heads):
        """
        Initializes a transformer layer, sans LayerNorm for performance, with multihead attention and linear layers.

        See  as described in https://arxiv.org/abs/2010.11929.
        """
        super().__init__()
        self.q = nn.Linear(c, c, bias=False)
        self.k = nn.Linear(c, c, bias=False)
        self.v = nn.Linear(c, c, bias=False)
        self.ma = nn.MultiheadAttention(embed_dim=c, num_heads=num_heads)
        self.fc1 = nn.Linear(c, c, bias=False)
        self.fc2 = nn.Linear(c, c, bias=False)

    def forward(self, x):
        """Performs forward pass using MultiheadAttention and two linear transformations with residual connections."""
        x = self.ma(self.q(x), self.k(x), self.v(x))[0] + x
        x = self.fc2(self.fc1(x)) + x
        return x


class TransformerBlock(nn.Module):
    """A Transformer block for vision tasks with convolution, position embeddings, and Transformer layers."""

    def __init__(self, c1, c2, num_heads, num_layers):
        """Initializes a Transformer block for vision tasks, adapting dimensions if necessary and stacking specified
        layers.
        """
        super().__init__()
        self.conv = None
        if c1 != c2:
            self.conv = Conv(c1, c2)
        self.linear = nn.Linear(c2, c2)  # learnable position embedding
        self.tr = nn.Sequential(*(TransformerLayer(c2, num_heads) for _ in range(num_layers)))
        self.c2 = c2

    def forward(self, x):
        """Processes input through an optional convolution, followed by Transformer layers and position embeddings for
        object detection.
        """
        if self.conv is not None:
            x = self.conv(x)
        b, _, w, h = x.shape
        p = x.flatten(2).permute(2, 0, 1)
        return self.tr(p + self.linear(p)).permute(1, 2, 0).reshape(b, self.c2, w, h)


class Bottleneck(nn.Module):
    """A bottleneck layer with optional shortcut and group convolution for efficient feature extraction."""

    def __init__(self, c1, c2, shortcut=True, g=1, e=0.5):
        """Initializes a standard bottleneck layer with optional shortcut and group convolution, supporting channel
        expansion.
        """
        super().__init__()
        c_ = int(c2 * e)  # hidden channels
        self.cv1 = Conv(c1, c_, 1, 1)
        self.cv2 = Conv(c_, c2, 3, 1, g=g)
        self.add = shortcut and c1 == c2

    def forward(self, x):
        """Processes input through two convolutions, optionally adds shortcut if channel dimensions match; input is a
        tensor.
        """
        return x + self.cv2(self.cv1(x)) if self.add else self.cv2(self.cv1(x))


class BottleneckCSP(nn.Module):
    """CSP bottleneck layer for feature extraction with cross-stage partial connections and optional shortcuts."""

    def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):
        """Initializes CSP bottleneck with optional shortcuts; args: ch_in, ch_out, number of repeats, shortcut bool,
        groups, expansion.
        """
        super().__init__()
        c_ = int(c2 * e)  # hidden channels
        self.cv1 = Conv(c1, c_, 1, 1)
        self.cv2 = nn.Conv2d(c1, c_, 1, 1, bias=False)
        self.cv3 = nn.Conv2d(c_, c_, 1, 1, bias=False)
        self.cv4 = Conv(2 * c_, c2, 1, 1)
        self.bn = nn.BatchNorm2d(2 * c_)  # applied to cat(cv2, cv3)
        self.act = nn.SiLU()
        self.m = nn.Sequential(*(Bottleneck(c_, c_, shortcut, g, e=1.0) for _ in range(n)))

    def forward(self, x):
        """Performs forward pass by applying layers, activation, and concatenation on input x, returning feature-
        enhanced output.
        """
        y1 = self.cv3(self.m(self.cv1(x)))
        y2 = self.cv2(x)
        return self.cv4(self.act(self.bn(torch.cat((y1, y2), 1))))


class CrossConv(nn.Module):
    """Implements a cross convolution layer with downsampling, expansion, and optional shortcut."""

    def __init__(self, c1, c2, k=3, s=1, g=1, e=1.0, shortcut=False):
        """
        Initializes CrossConv with downsampling, expanding, and optionally shortcutting; `c1` input, `c2` output
        channels.

        Inputs are ch_in, ch_out, kernel, stride, groups, expansion, shortcut.
        """
        super().__init__()
        c_ = int(c2 * e)  # hidden channels
        self.cv1 = Conv(c1, c_, (1, k), (1, s))
        self.cv2 = Conv(c_, c2, (k, 1), (s, 1), g=g)
        self.add = shortcut and c1 == c2

    def forward(self, x):
        """Performs feature sampling, expanding, and applies shortcut if channels match; expects `x` input tensor."""
        return x + self.cv2(self.cv1(x)) if self.add else self.cv2(self.cv1(x))


class C3(nn.Module):
    """Implements a CSP Bottleneck module with three convolutions for enhanced feature extraction in neural networks."""

    def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):
        """Initializes C3 module with options for channel count, bottleneck repetition, shortcut usage, group
        convolutions, and expansion.
        """
        super().__init__()
        c_ = int(c2 * e)  # hidden channels
        self.cv1 = Conv(c1, c_, 1, 1)
        self.cv2 = Conv(c1, c_, 1, 1)
        self.cv3 = Conv(2 * c_, c2, 1)  # optional act=FReLU(c2)
        self.m = nn.Sequential(*(Bottleneck(c_, c_, shortcut, g, e=1.0) for _ in range(n)))

    def forward(self, x):
        """Performs forward propagation using concatenated outputs from two convolutions and a Bottleneck sequence."""
        return self.cv3(torch.cat((self.m(self.cv1(x)), self.cv2(x)), 1))


class C3x(C3):
    """Extends the C3 module with cross-convolutions for enhanced feature extraction in neural networks."""

    def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):
        """Initializes C3x module with cross-convolutions, extending C3 with customizable channel dimensions, groups,
        and expansion.
        """
        super().__init__(c1, c2, n, shortcut, g, e)
        c_ = int(c2 * e)
        self.m = nn.Sequential(*(CrossConv(c_, c_, 3, 1, g, 1.0, shortcut) for _ in range(n)))


class C3TR(C3):
    """C3 module with TransformerBlock for enhanced feature extraction in object detection models."""

    def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):
        """Initializes C3 module with TransformerBlock for enhanced feature extraction, accepts channel sizes, shortcut
        config, group, and expansion.
        """
        super().__init__(c1, c2, n, shortcut, g, e)
        c_ = int(c2 * e)
        self.m = TransformerBlock(c_, c_, 4, n)


class C3SPP(C3):
    """Extends the C3 module with an SPP layer for enhanced spatial feature extraction and customizable channels."""

    def __init__(self, c1, c2, k=(5, 9, 13), n=1, shortcut=True, g=1, e=0.5):
        """Initializes a C3 module with SPP layer for advanced spatial feature extraction, given channel sizes, kernel
        sizes, shortcut, group, and expansion ratio.
        """
        super().__init__(c1, c2, n, shortcut, g, e)
        c_ = int(c2 * e)
        self.m = SPP(c_, c_, k)


class C3Ghost(C3):
    """Implements a C3 module with Ghost Bottlenecks for efficient feature extraction in YOLOv5."""

    def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):
        """Initializes YOLOv5's C3 module with Ghost Bottlenecks for efficient feature extraction."""
        super().__init__(c1, c2, n, shortcut, g, e)
        c_ = int(c2 * e)  # hidden channels
        self.m = nn.Sequential(*(GhostBottleneck(c_, c_) for _ in range(n)))


class SPP(nn.Module):
    """Implements Spatial Pyramid Pooling (SPP) for feature extraction, ref: https://arxiv.org/abs/1406.4729."""

    def __init__(self, c1, c2, k=(5, 9, 13)):
        """Initializes SPP layer with Spatial Pyramid Pooling, ref: https://arxiv.org/abs/1406.4729, args: c1 (input channels), c2 (output channels), k (kernel sizes)."""
        super().__init__()
        c_ = c1 // 2  # hidden channels
        self.cv1 = Conv(c1, c_, 1, 1)
        self.cv2 = Conv(c_ * (len(k) + 1), c2, 1, 1)
        self.m = nn.ModuleList([nn.MaxPool2d(kernel_size=x, stride=1, padding=x // 2) for x in k])

    def forward(self, x):
        """Applies convolution and max pooling layers to the input tensor `x`, concatenates results, and returns output
        tensor.
        """
        x = self.cv1(x)
        with warnings.catch_warnings():
            warnings.simplefilter("ignore")  # suppress torch 1.9.0 max_pool2d() warning
            return self.cv2(torch.cat([x] + [m(x) for m in self.m], 1))


class SPPF(nn.Module):
    """Implements a fast Spatial Pyramid Pooling (SPPF) layer for efficient feature extraction in YOLOv5 models."""

    def __init__(self, c1, c2, k=5):
        """
        Initializes YOLOv5 SPPF layer with given channels and kernel size for YOLOv5 model, combining convolution and
        max pooling.

        Equivalent to SPP(k=(5, 9, 13)).
        """
        super().__init__()
        c_ = c1 // 2  # hidden channels
        self.cv1 = Conv(c1, c_, 1, 1)
        self.cv2 = Conv(c_ * 4, c2, 1, 1)
        self.m = nn.MaxPool2d(kernel_size=k, stride=1, padding=k // 2)

    def forward(self, x):
        """Processes input through a series of convolutions and max pooling operations for feature extraction."""
        x = self.cv1(x)
        with warnings.catch_warnings():
            warnings.simplefilter("ignore")  # suppress torch 1.9.0 max_pool2d() warning
            y1 = self.m(x)
            y2 = self.m(y1)
            return self.cv2(torch.cat((x, y1, y2, self.m(y2)), 1))


class Focus(nn.Module):
    """Focuses spatial information into channel space using slicing and convolution for efficient feature extraction."""

    def __init__(self, c1, c2, k=1, s=1, p=None, g=1, act=True):
        """Initializes Focus module to concentrate width-height info into channel space with configurable convolution
        parameters.
        """
        super().__init__()
        self.conv = Conv(c1 * 4, c2, k, s, p, g, act=act)
        # self.contract = Contract(gain=2)

    def forward(self, x):
        """Processes input through Focus mechanism, reshaping (b,c,w,h) to (b,4c,w/2,h/2) then applies convolution."""
        return self.conv(torch.cat((x[..., ::2, ::2], x[..., 1::2, ::2], x[..., ::2, 1::2], x[..., 1::2, 1::2]), 1))
        # return self.conv(self.contract(x))


class GhostConv(nn.Module):
    """Implements Ghost Convolution for efficient feature extraction, see https://github.com/huawei-noah/ghostnet."""

    def __init__(self, c1, c2, k=1, s=1, g=1, act=True):
        """Initializes GhostConv with in/out channels, kernel size, stride, groups, and activation; halves out channels
        for efficiency.
        """
        super().__init__()
        c_ = c2 // 2  # hidden channels
        self.cv1 = Conv(c1, c_, k, s, None, g, act=act)
        self.cv2 = Conv(c_, c_, 5, 1, None, c_, act=act)

    def forward(self, x):
        """Performs forward pass, concatenating outputs of two convolutions on input `x`: shape (B,C,H,W)."""
        y = self.cv1(x)
        return torch.cat((y, self.cv2(y)), 1)


class GhostBottleneck(nn.Module):
    """Efficient bottleneck layer using Ghost Convolutions, see https://github.com/huawei-noah/ghostnet."""

    def __init__(self, c1, c2, k=3, s=1):
        """Initializes GhostBottleneck with ch_in `c1`, ch_out `c2`, kernel size `k`, stride `s`; see https://github.com/huawei-noah/ghostnet."""
        super().__init__()
        c_ = c2 // 2
        self.conv = nn.Sequential(
            GhostConv(c1, c_, 1, 1),  # pw
            DWConv(c_, c_, k, s, act=False) if s == 2 else nn.Identity(),  # dw
            GhostConv(c_, c2, 1, 1, act=False),
        )  # pw-linear
        self.shortcut = (
            nn.Sequential(DWConv(c1, c1, k, s, act=False), Conv(c1, c2, 1, 1, act=False)) if s == 2 else nn.Identity()
        )

    def forward(self, x):
        """Processes input through conv and shortcut layers, returning their summed output."""
        return self.conv(x) + self.shortcut(x)


class Contract(nn.Module):
    """Contracts spatial dimensions into channel dimensions for efficient processing in neural networks."""

    def __init__(self, gain=2):
        """Initializes a layer to contract spatial dimensions (width-height) into channels, e.g., input shape
        (1,64,80,80) to (1,256,40,40).
        """
        super().__init__()
        self.gain = gain

    def forward(self, x):
        """Processes input tensor to expand channel dimensions by contracting spatial dimensions, yielding output shape
        `(b, c*s*s, h//s, w//s)`.
        """
        b, c, h, w = x.size()  # assert (h / s == 0) and (W / s == 0), 'Indivisible gain'
        s = self.gain
        x = x.view(b, c, h // s, s, w // s, s)  # x(1,64,40,2,40,2)
        x = x.permute(0, 3, 5, 1, 2, 4).contiguous()  # x(1,2,2,64,40,40)
        return x.view(b, c * s * s, h // s, w // s)  # x(1,256,40,40)


class Expand(nn.Module):
    """Expands spatial dimensions by redistributing channels, e.g., from (1,64,80,80) to (1,16,160,160)."""

    def __init__(self, gain=2):
        """
        Initializes the Expand module to increase spatial dimensions by redistributing channels, with an optional gain
        factor.

        Example: x(1,64,80,80) to x(1,16,160,160).
        """
        super().__init__()
        self.gain = gain

    def forward(self, x):
        """Processes input tensor x to expand spatial dimensions by redistributing channels, requiring C / gain^2 ==
        0.
        """
        b, c, h, w = x.size()  # assert C / s ** 2 == 0, 'Indivisible gain'
        s = self.gain
        x = x.view(b, s, s, c // s**2, h, w)  # x(1,2,2,16,80,80)
        x = x.permute(0, 3, 4, 1, 5, 2).contiguous()  # x(1,16,80,2,80,2)
        return x.view(b, c // s**2, h * s, w * s)  # x(1,16,160,160)


class Concat(nn.Module):
    """Concatenates tensors along a specified dimension for efficient tensor manipulation in neural networks."""

    def __init__(self, dimension=1):
        """Initializes a Concat module to concatenate tensors along a specified dimension."""
        super().__init__()
        self.d = dimension

    def forward(self, x):
        """Concatenates a list of tensors along a specified dimension; `x` is a list of tensors, `dimension` is an
        int.
        """
        return torch.cat(x, self.d)


class DetectMultiBackend(nn.Module):
    """YOLOv5 MultiBackend class for inference on various backends including PyTorch, ONNX, TensorRT, and more."""

    def __init__(self, weights="yolov5s.pt", device=torch.device("cpu"), dnn=False, data=None, fp16=False, fuse=True):
        """Initializes DetectMultiBackend with support for various inference backends, including PyTorch and ONNX."""
        #   PyTorch:              weights = *.pt
        #   TorchScript:                    *.torchscript
        #   ONNX Runtime:                   *.onnx
        #   ONNX OpenCV DNN:                *.onnx --dnn
        #   OpenVINO:                       *_openvino_model
        #   CoreML:                         *.mlpackage
        #   TensorRT:                       *.engine
        #   TensorFlow SavedModel:          *_saved_model
        #   TensorFlow GraphDef:            *.pb
        #   TensorFlow Lite:                *.tflite
        #   TensorFlow Edge TPU:            *_edgetpu.tflite
        #   PaddlePaddle:                   *_paddle_model
        from models.experimental import attempt_download, attempt_load  # scoped to avoid circular import

        super().__init__()
        w = str(weights[0] if isinstance(weights, list) else weights)
        pt, jit, onnx, xml, engine, coreml, saved_model, pb, tflite, edgetpu, tfjs, paddle, triton = self._model_type(w)
        fp16 &= pt or jit or onnx or engine or triton  # FP16
        nhwc = coreml or saved_model or pb or tflite or edgetpu  # BHWC formats (vs torch BCWH)
        stride = 32  # default stride
        cuda = torch.cuda.is_available() and device.type != "cpu"  # use CUDA
        if not (pt or triton):
            w = attempt_download(w)  # download if not local

        if pt:  # PyTorch
            model = attempt_load(weights if isinstance(weights, list) else w, device=device, inplace=True, fuse=fuse)
            stride = max(int(model.stride.max()), 32)  # model stride
            names = model.module.names if hasattr(model, "module") else model.names  # get class names
            model.half() if fp16 else model.float()
            self.model = model  # explicitly assign for to(), cpu(), cuda(), half()
        elif jit:  # TorchScript
            LOGGER.info(f"Loading {w} for TorchScript inference...")
            extra_files = {"config.txt": ""}  # model metadata
            model = torch.jit.load(w, _extra_files=extra_files, map_location=device)
            model.half() if fp16 else model.float()
            if extra_files["config.txt"]:  # load metadata dict
                d = json.loads(
                    extra_files["config.txt"],
                    object_hook=lambda d: {int(k) if k.isdigit() else k: v for k, v in d.items()},
                )
                stride, names = int(d["stride"]), d["names"]
        elif dnn:  # ONNX OpenCV DNN
            LOGGER.info(f"Loading {w} for ONNX OpenCV DNN inference...")
            check_requirements("opencv-python>=4.5.4")
            net = cv2.dnn.readNetFromONNX(w)
        elif onnx:  # ONNX Runtime
            LOGGER.info(f"Loading {w} for ONNX Runtime inference...")
            check_requirements(("onnx", "onnxruntime-gpu" if cuda else "onnxruntime"))
            import onnxruntime

            providers = ["CUDAExecutionProvider", "CPUExecutionProvider"] if cuda else ["CPUExecutionProvider"]
            session = onnxruntime.InferenceSession(w, providers=providers)
            output_names = [x.name for x in session.get_outputs()]
            meta = session.get_modelmeta().custom_metadata_map  # metadata
            if "stride" in meta:
                stride, names = int(meta["stride"]), eval(meta["names"])
        elif xml:  # OpenVINO
            LOGGER.info(f"Loading {w} for OpenVINO inference...")
            check_requirements("openvino>=2023.0")  # requires openvino-dev: https://pypi.org/project/openvino-dev/
            from openvino.runtime import Core, Layout, get_batch

            core = Core()
            if not Path(w).is_file():  # if not *.xml
                w = next(Path(w).glob("*.xml"))  # get *.xml file from *_openvino_model dir
            ov_model = core.read_model(model=w, weights=Path(w).with_suffix(".bin"))
            if ov_model.get_parameters()[0].get_layout().empty:
                ov_model.get_parameters()[0].set_layout(Layout("NCHW"))
            batch_dim = get_batch(ov_model)
            if batch_dim.is_static:
                batch_size = batch_dim.get_length()
            ov_compiled_model = core.compile_model(ov_model, device_name="AUTO")  # AUTO selects best available device
            stride, names = self._load_metadata(Path(w).with_suffix(".yaml"))  # load metadata
        elif engine:  # TensorRT
            LOGGER.info(f"Loading {w} for TensorRT inference...")
            import tensorrt as trt  # https://developer.nvidia.com/nvidia-tensorrt-download

            check_version(trt.__version__, "7.0.0", hard=True)  # require tensorrt>=7.0.0
            if device.type == "cpu":
                device = torch.device("cuda:0")
            Binding = namedtuple("Binding", ("name", "dtype", "shape", "data", "ptr"))
            logger = trt.Logger(trt.Logger.INFO)
            with open(w, "rb") as f, trt.Runtime(logger) as runtime:
                model = runtime.deserialize_cuda_engine(f.read())
            context = model.create_execution_context()
            bindings = OrderedDict()
            output_names = []
            fp16 = False  # default updated below
            dynamic = False
            is_trt10 = not hasattr(model, "num_bindings")
            num = range(model.num_io_tensors) if is_trt10 else range(model.num_bindings)
            for i in num:
                if is_trt10:
                    name = model.get_tensor_name(i)
                    dtype = trt.nptype(model.get_tensor_dtype(name))
                    is_input = model.get_tensor_mode(name) == trt.TensorIOMode.INPUT
                    if is_input:
                        if -1 in tuple(model.get_tensor_shape(name)):  # dynamic
                            dynamic = True
                            context.set_input_shape(name, tuple(model.get_profile_shape(name, 0)[2]))
                        if dtype == np.float16:
                            fp16 = True
                    else:  # output
                        output_names.append(name)
                    shape = tuple(context.get_tensor_shape(name))
                else:
                    name = model.get_binding_name(i)
                    dtype = trt.nptype(model.get_binding_dtype(i))
                    if model.binding_is_input(i):
                        if -1 in tuple(model.get_binding_shape(i)):  # dynamic
                            dynamic = True
                            context.set_binding_shape(i, tuple(model.get_profile_shape(0, i)[2]))
                        if dtype == np.float16:
                            fp16 = True
                    else:  # output
                        output_names.append(name)
                    shape = tuple(context.get_binding_shape(i))
                im = torch.from_numpy(np.empty(shape, dtype=dtype)).to(device)
                bindings[name] = Binding(name, dtype, shape, im, int(im.data_ptr()))
            binding_addrs = OrderedDict((n, d.ptr) for n, d in bindings.items())
            batch_size = bindings["images"].shape[0]  # if dynamic, this is instead max batch size
        elif coreml:  # CoreML
            LOGGER.info(f"Loading {w} for CoreML inference...")
            import coremltools as ct

            model = ct.models.MLModel(w)
        elif saved_model:  # TF SavedModel
            LOGGER.info(f"Loading {w} for TensorFlow SavedModel inference...")
            import tensorflow as tf

            keras = False  # assume TF1 saved_model
            model = tf.keras.models.load_model(w) if keras else tf.saved_model.load(w)
        elif pb:  # GraphDef https://www.tensorflow.org/guide/migrate#a_graphpb_or_graphpbtxt
            LOGGER.info(f"Loading {w} for TensorFlow GraphDef inference...")
            import tensorflow as tf

            def wrap_frozen_graph(gd, inputs, outputs):
                """Wraps a TensorFlow GraphDef for inference, returning a pruned function."""
                x = tf.compat.v1.wrap_function(lambda: tf.compat.v1.import_graph_def(gd, name=""), [])  # wrapped
                ge = x.graph.as_graph_element
                return x.prune(tf.nest.map_structure(ge, inputs), tf.nest.map_structure(ge, outputs))

            def gd_outputs(gd):
                """Generates a sorted list of graph outputs excluding NoOp nodes and inputs, formatted as ':0'."""
                name_list, input_list = [], []
                for node in gd.node:  # tensorflow.core.framework.node_def_pb2.NodeDef
                    name_list.append(node.name)
                    input_list.extend(node.input)
                return sorted(f"{x}:0" for x in list(set(name_list) - set(input_list)) if not x.startswith("NoOp"))

            gd = tf.Graph().as_graph_def()  # TF GraphDef
            with open(w, "rb") as f:
                gd.ParseFromString(f.read())
            frozen_func = wrap_frozen_graph(gd, inputs="x:0", outputs=gd_outputs(gd))
        elif tflite or edgetpu:  # https://www.tensorflow.org/lite/guide/python#install_tensorflow_lite_for_python
            try:  # https://coral.ai/docs/edgetpu/tflite-python/#update-existing-tf-lite-code-for-the-edge-tpu
                from tflite_runtime.interpreter import Interpreter, load_delegate
            except ImportError:
                import tensorflow as tf

                Interpreter, load_delegate = (
                    tf.lite.Interpreter,
                    tf.lite.experimental.load_delegate,
                )
            if edgetpu:  # TF Edge TPU https://coral.ai/software/#edgetpu-runtime
                LOGGER.info(f"Loading {w} for TensorFlow Lite Edge TPU inference...")
                delegate = {"Linux": "libedgetpu.so.1", "Darwin": "libedgetpu.1.dylib", "Windows": "edgetpu.dll"}[
                    platform.system()
                ]
                interpreter = Interpreter(model_path=w, experimental_delegates=[load_delegate(delegate)])
            else:  # TFLite
                LOGGER.info(f"Loading {w} for TensorFlow Lite inference...")
                interpreter = Interpreter(model_path=w)  # load TFLite model
            interpreter.allocate_tensors()  # allocate
            input_details = interpreter.get_input_details()  # inputs
            output_details = interpreter.get_output_details()  # outputs
            # load metadata
            with contextlib.suppress(zipfile.BadZipFile):
                with zipfile.ZipFile(w, "r") as model:
                    meta_file = model.namelist()[0]
                    meta = ast.literal_eval(model.read(meta_file).decode("utf-8"))
                    stride, names = int(meta["stride"]), meta["names"]
        elif tfjs:  # TF.js
            raise NotImplementedError("ERROR: YOLOv5 TF.js inference is not supported")
        elif paddle:  # PaddlePaddle
            LOGGER.info(f"Loading {w} for PaddlePaddle inference...")
            check_requirements("paddlepaddle-gpu" if cuda else "paddlepaddle")
            import paddle.inference as pdi

            if not Path(w).is_file():  # if not *.pdmodel
                w = next(Path(w).rglob("*.pdmodel"))  # get *.pdmodel file from *_paddle_model dir
            weights = Path(w).with_suffix(".pdiparams")
            config = pdi.Config(str(w), str(weights))
            if cuda:
                config.enable_use_gpu(memory_pool_init_size_mb=2048, device_id=0)
            predictor = pdi.create_predictor(config)
            input_handle = predictor.get_input_handle(predictor.get_input_names()[0])
            output_names = predictor.get_output_names()
        elif triton:  # NVIDIA Triton Inference Server
            LOGGER.info(f"Using {w} as Triton Inference Server...")
            check_requirements("tritonclient[all]")
            from utils.triton import TritonRemoteModel

            model = TritonRemoteModel(url=w)
            nhwc = model.runtime.startswith("tensorflow")
        else:
            raise NotImplementedError(f"ERROR: {w} is not a supported format")

        # class names
        if "names" not in locals():
            names = yaml_load(data)["names"] if data else {i: f"class{i}" for i in range(999)}
        if names[0] == "n01440764" and len(names) == 1000:  # ImageNet
            names = yaml_load(ROOT / "data/ImageNet.yaml")["names"]  # human-readable names

        self.__dict__.update(locals())  # assign all variables to self

    def forward(self, im, augment=False, visualize=False):
        """Performs YOLOv5 inference on input images with options for augmentation and visualization."""
        b, ch, h, w = im.shape  # batch, channel, height, width
        if self.fp16 and im.dtype != torch.float16:
            im = im.half()  # to FP16
        if self.nhwc:
            im = im.permute(0, 2, 3, 1)  # torch BCHW to numpy BHWC shape(1,320,192,3)

        if self.pt:  # PyTorch
            y = self.model(im, augment=augment, visualize=visualize) if augment or visualize else self.model(im)
        elif self.jit:  # TorchScript
            y = self.model(im)
        elif self.dnn:  # ONNX OpenCV DNN
            im = im.cpu().numpy()  # torch to numpy
            self.net.setInput(im)
            y = self.net.forward()
        elif self.onnx:  # ONNX Runtime
            im = im.cpu().numpy()  # torch to numpy
            y = self.session.run(self.output_names, {self.session.get_inputs()[0].name: im})
        elif self.xml:  # OpenVINO
            im = im.cpu().numpy()  # FP32
            y = list(self.ov_compiled_model(im).values())
        elif self.engine:  # TensorRT
            if self.dynamic and im.shape != self.bindings["images"].shape:
                i = self.model.get_binding_index("images")
                self.context.set_binding_shape(i, im.shape)  # reshape if dynamic
                self.bindings["images"] = self.bindings["images"]._replace(shape=im.shape)
                for name in self.output_names:
                    i = self.model.get_binding_index(name)
                    self.bindings[name].data.resize_(tuple(self.context.get_binding_shape(i)))
            s = self.bindings["images"].shape
            assert im.shape == s, f"input size {im.shape} {'>' if self.dynamic else 'not equal to'} max model size {s}"
            self.binding_addrs["images"] = int(im.data_ptr())
            self.context.execute_v2(list(self.binding_addrs.values()))
            y = [self.bindings[x].data for x in sorted(self.output_names)]
        elif self.coreml:  # CoreML
            im = im.cpu().numpy()
            im = Image.fromarray((im[0] * 255).astype("uint8"))
            # im = im.resize((192, 320), Image.BILINEAR)
            y = self.model.predict({"image": im})  # coordinates are xywh normalized
            if "confidence" in y:
                box = xywh2xyxy(y["coordinates"] * [[w, h, w, h]])  # xyxy pixels
                conf, cls = y["confidence"].max(1), y["confidence"].argmax(1).astype(np.float)
                y = np.concatenate((box, conf.reshape(-1, 1), cls.reshape(-1, 1)), 1)
            else:
                y = list(reversed(y.values()))  # reversed for segmentation models (pred, proto)
        elif self.paddle:  # PaddlePaddle
            im = im.cpu().numpy().astype(np.float32)
            self.input_handle.copy_from_cpu(im)
            self.predictor.run()
            y = [self.predictor.get_output_handle(x).copy_to_cpu() for x in self.output_names]
        elif self.triton:  # NVIDIA Triton Inference Server
            y = self.model(im)
        else:  # TensorFlow (SavedModel, GraphDef, Lite, Edge TPU)
            im = im.cpu().numpy()
            if self.saved_model:  # SavedModel
                y = self.model(im, training=False) if self.keras else self.model(im)
            elif self.pb:  # GraphDef
                y = self.frozen_func(x=self.tf.constant(im))
            else:  # Lite or Edge TPU
                input = self.input_details[0]
                int8 = input["dtype"] == np.uint8  # is TFLite quantized uint8 model
                if int8:
                    scale, zero_point = input["quantization"]
                    im = (im / scale + zero_point).astype(np.uint8)  # de-scale
                self.interpreter.set_tensor(input["index"], im)
                self.interpreter.invoke()
                y = []
                for output in self.output_details:
                    x = self.interpreter.get_tensor(output["index"])
                    if int8:
                        scale, zero_point = output["quantization"]
                        x = (x.astype(np.float32) - zero_point) * scale  # re-scale
                    y.append(x)
            if len(y) == 2 and len(y[1].shape) != 4:
                y = list(reversed(y))
            y = [x if isinstance(x, np.ndarray) else x.numpy() for x in y]
            y[0][..., :4] *= [w, h, w, h]  # xywh normalized to pixels

        if isinstance(y, (list, tuple)):
            return self.from_numpy(y[0]) if len(y) == 1 else [self.from_numpy(x) for x in y]
        else:
            return self.from_numpy(y)

    def from_numpy(self, x):
        """Converts a NumPy array to a torch tensor, maintaining device compatibility."""
        return torch.from_numpy(x).to(self.device) if isinstance(x, np.ndarray) else x

    def warmup(self, imgsz=(1, 3, 640, 640)):
        """Performs a single inference warmup to initialize model weights, accepting an `imgsz` tuple for image size."""
        warmup_types = self.pt, self.jit, self.onnx, self.engine, self.saved_model, self.pb, self.triton
        if any(warmup_types) and (self.device.type != "cpu" or self.triton):
            im = torch.empty(*imgsz, dtype=torch.half if self.fp16 else torch.float, device=self.device)  # input
            for _ in range(2 if self.jit else 1):  #
                self.forward(im)  # warmup

    @staticmethod
    def _model_type(p="path/to/model.pt"):
        """
        Determines model type from file path or URL, supporting various export formats.

        Example: path='path/to/model.onnx' -> type=onnx
        """
        # types = [pt, jit, onnx, xml, engine, coreml, saved_model, pb, tflite, edgetpu, tfjs, paddle]
        from export import export_formats
        from utils.downloads import is_url

        sf = list(export_formats().Suffix)  # export suffixes
        if not is_url(p, check=False):
            check_suffix(p, sf)  # checks
        url = urlparse(p)  # if url may be Triton inference server
        types = [s in Path(p).name for s in sf]
        types[8] &= not types[9]  # tflite &= not edgetpu
        triton = not any(types) and all([any(s in url.scheme for s in ["http", "grpc"]), url.netloc])
        return types + [triton]

    @staticmethod
    def _load_metadata(f=Path("path/to/meta.yaml")):
        """Loads metadata from a YAML file, returning strides and names if the file exists, otherwise `None`."""
        if f.exists():
            d = yaml_load(f)
            return d["stride"], d["names"]  # assign stride, names
        return None, None


class AutoShape(nn.Module):
    """AutoShape class for robust YOLOv5 inference with preprocessing, NMS, and support for various input formats."""

    conf = 0.25  # NMS confidence threshold
    iou = 0.45  # NMS IoU threshold
    agnostic = False  # NMS class-agnostic
    multi_label = False  # NMS multiple labels per box
    classes = None  # (optional list) filter by class, i.e. = [0, 15, 16] for COCO persons, cats and dogs
    max_det = 1000  # maximum number of detections per image
    amp = False  # Automatic Mixed Precision (AMP) inference

    def __init__(self, model, verbose=True):
        """Initializes YOLOv5 model for inference, setting up attributes and preparing model for evaluation."""
        super().__init__()
        if verbose:
            LOGGER.info("Adding AutoShape... ")
        copy_attr(self, model, include=("yaml", "nc", "hyp", "names", "stride", "abc"), exclude=())  # copy attributes
        self.dmb = isinstance(model, DetectMultiBackend)  # DetectMultiBackend() instance
        self.pt = not self.dmb or model.pt  # PyTorch model
        self.model = model.eval()
        if self.pt:
            m = self.model.model.model[-1] if self.dmb else self.model.model[-1]  # Detect()
            m.inplace = False  # Detect.inplace=False for safe multithread inference
            m.export = True  # do not output loss values

    def _apply(self, fn):
        """
        Applies to(), cpu(), cuda(), half() etc.

        to model tensors excluding parameters or registered buffers.
        """
        self = super()._apply(fn)
        if self.pt:
            m = self.model.model.model[-1] if self.dmb else self.model.model[-1]  # Detect()
            m.stride = fn(m.stride)
            m.grid = list(map(fn, m.grid))
            if isinstance(m.anchor_grid, list):
                m.anchor_grid = list(map(fn, m.anchor_grid))
        return self

    @smart_inference_mode()
    def forward(self, ims, size=640, augment=False, profile=False):
        """
        Performs inference on inputs with optional augment & profiling.

        Supports various formats including file, URI, OpenCV, PIL, numpy, torch.
        """
        # For size(height=640, width=1280), RGB images example inputs are:
        #   file:        ims = 'data/images/zidane.jpg'  # str or PosixPath
        #   URI:             = 'https://ultralytics.com/images/zidane.jpg'
        #   OpenCV:          = cv2.imread('image.jpg')[:,:,::-1]  # HWC BGR to RGB x(640,1280,3)
        #   PIL:             = Image.open('image.jpg') or ImageGrab.grab()  # HWC x(640,1280,3)
        #   numpy:           = np.zeros((640,1280,3))  # HWC
        #   torch:           = torch.zeros(16,3,320,640)  # BCHW (scaled to size=640, 0-1 values)
        #   multiple:        = [Image.open('image1.jpg'), Image.open('image2.jpg'), ...]  # list of images

        dt = (Profile(), Profile(), Profile())
        with dt[0]:
            if isinstance(size, int):  # expand
                size = (size, size)
            p = next(self.model.parameters()) if self.pt else torch.empty(1, device=self.model.device)  # param
            autocast = self.amp and (p.device.type != "cpu")  # Automatic Mixed Precision (AMP) inference
            if isinstance(ims, torch.Tensor):  # torch
                with amp.autocast(autocast):
                    return self.model(ims.to(p.device).type_as(p), augment=augment)  # inference

            # Pre-process
            n, ims = (len(ims), list(ims)) if isinstance(ims, (list, tuple)) else (1, [ims])  # number, list of images
            shape0, shape1, files = [], [], []  # image and inference shapes, filenames
            for i, im in enumerate(ims):
                f = f"image{i}"  # filename
                if isinstance(im, (str, Path)):  # filename or uri
                    im, f = Image.open(requests.get(im, stream=True).raw if str(im).startswith("http") else im), im
                    im = np.asarray(exif_transpose(im))
                elif isinstance(im, Image.Image):  # PIL Image
                    im, f = np.asarray(exif_transpose(im)), getattr(im, "filename", f) or f
                files.append(Path(f).with_suffix(".jpg").name)
                if im.shape[0] < 5:  # image in CHW
                    im = im.transpose((1, 2, 0))  # reverse dataloader .transpose(2, 0, 1)
                im = im[..., :3] if im.ndim == 3 else cv2.cvtColor(im, cv2.COLOR_GRAY2BGR)  # enforce 3ch input
                s = im.shape[:2]  # HWC
                shape0.append(s)  # image shape
                g = max(size) / max(s)  # gain
                shape1.append([int(y * g) for y in s])
                ims[i] = im if im.data.contiguous else np.ascontiguousarray(im)  # update
            shape1 = [make_divisible(x, self.stride) for x in np.array(shape1).max(0)]  # inf shape
            x = [letterbox(im, shape1, auto=False)[0] for im in ims]  # pad
            x = np.ascontiguousarray(np.array(x).transpose((0, 3, 1, 2)))  # stack and BHWC to BCHW
            x = torch.from_numpy(x).to(p.device).type_as(p) / 255  # uint8 to fp16/32

        with amp.autocast(autocast):
            # Inference
            with dt[1]:
                y = self.model(x, augment=augment)  # forward

            # Post-process
            with dt[2]:
                y = non_max_suppression(
                    y if self.dmb else y[0],
                    self.conf,
                    self.iou,
                    self.classes,
                    self.agnostic,
                    self.multi_label,
                    max_det=self.max_det,
                )  # NMS
                for i in range(n):
                    scale_boxes(shape1, y[i][:, :4], shape0[i])

            return Detections(ims, y, files, dt, self.names, x.shape)


class Detections:
    """Manages YOLOv5 detection results with methods for visualization, saving, cropping, and exporting detections."""

    def __init__(self, ims, pred, files, times=(0, 0, 0), names=None, shape=None):
        """Initializes the YOLOv5 Detections class with image info, predictions, filenames, timing and normalization."""
        super().__init__()
        d = pred[0].device  # device
        gn = [torch.tensor([*(im.shape[i] for i in [1, 0, 1, 0]), 1, 1], device=d) for im in ims]  # normalizations
        self.ims = ims  # list of images as numpy arrays
        self.pred = pred  # list of tensors pred[0] = (xyxy, conf, cls)
        self.names = names  # class names
        self.files = files  # image filenames
        self.times = times  # profiling times
        self.xyxy = pred  # xyxy pixels
        self.xywh = [xyxy2xywh(x) for x in pred]  # xywh pixels
        self.xyxyn = [x / g for x, g in zip(self.xyxy, gn)]  # xyxy normalized
        self.xywhn = [x / g for x, g in zip(self.xywh, gn)]  # xywh normalized
        self.n = len(self.pred)  # number of images (batch size)
        self.t = tuple(x.t / self.n * 1e3 for x in times)  # timestamps (ms)
        self.s = tuple(shape)  # inference BCHW shape

    def _run(self, pprint=False, show=False, save=False, crop=False, render=False, labels=True, save_dir=Path("")):
        """Executes model predictions, displaying and/or saving outputs with optional crops and labels."""
        s, crops = "", []
        for i, (im, pred) in enumerate(zip(self.ims, self.pred)):
            s += f"
image {i + 1}/{len(self.pred)}: {im.shape[0]}x{im.shape[1]} "  # string
            if pred.shape[0]:
                for c in pred[:, -1].unique():
                    n = (pred[:, -1] == c).sum()  # detections per class
                    s += f"{n} {self.names[int(c)]}{'s' * (n > 1)}, "  # add to string
                s = s.rstrip(", ")
                if show or save or render or crop:
                    annotator = Annotator(im, example=str(self.names))
                    for *box, conf, cls in reversed(pred):  # xyxy, confidence, class
                        label = f"{self.names[int(cls)]} {conf:.2f}"
                        if crop:
                            file = save_dir / "crops" / self.names[int(cls)] / self.files[i] if save else None
                            crops.append(
                                {
                                    "box": box,
                                    "conf": conf,
                                    "cls": cls,
                                    "label": label,
                                    "im": save_one_box(box, im, file=file, save=save),
                                }
                            )
                        else:  # all others
                            annotator.box_label(box, label if labels else "", color=colors(cls))
                    im = annotator.im
            else:
                s += "(no detections)"

            im = Image.fromarray(im.astype(np.uint8)) if isinstance(im, np.ndarray) else im  # from np
            if show:
                if is_jupyter():
                    from IPython.display import display

                    display(im)
                else:
                    im.show(self.files[i])
            if save:
                f = self.files[i]
                im.save(save_dir / f)  # save
                if i == self.n - 1:
                    LOGGER.info(f"Saved {self.n} image{'s' * (self.n > 1)} to {colorstr('bold', save_dir)}")
            if render:
                self.ims[i] = np.asarray(im)
        if pprint:
            s = s.lstrip("
")
            return f"{s}
Speed: %.1fms pre-process, %.1fms inference, %.1fms NMS per image at shape {self.s}" % self.t
        if crop:
            if save:
                LOGGER.info(f"Saved results to {save_dir}
")
            return crops

    @TryExcept("Showing images is not supported in this environment")
    def show(self, labels=True):
        """
        Displays detection results with optional labels.

        Usage: show(labels=True)
        """
        self._run(show=True, labels=labels)  # show results

    def save(self, labels=True, save_dir="runs/detect/exp", exist_ok=False):
        """
        Saves detection results with optional labels to a specified directory.

        Usage: save(labels=True, save_dir='runs/detect/exp', exist_ok=False)
        """
        save_dir = increment_path(save_dir, exist_ok, mkdir=True)  # increment save_dir
        self._run(save=True, labels=labels, save_dir=save_dir)  # save results

    def crop(self, save=True, save_dir="runs/detect/exp", exist_ok=False):
        """
        Crops detection results, optionally saves them to a directory.

        Args: save (bool), save_dir (str), exist_ok (bool).
        """
        save_dir = increment_path(save_dir, exist_ok, mkdir=True) if save else None
        return self._run(crop=True, save=save, save_dir=save_dir)  # crop results

    def render(self, labels=True):
        """Renders detection results with optional labels on images; args: labels (bool) indicating label inclusion."""
        self._run(render=True, labels=labels)  # render results
        return self.ims

    def pandas(self):
        """
        Returns detections as pandas DataFrames for various box formats (xyxy, xyxyn, xywh, xywhn).

        Example: print(results.pandas().xyxy[0]).
        """
        new = copy(self)  # return copy
        ca = "xmin", "ymin", "xmax", "ymax", "confidence", "class", "name"  # xyxy columns
        cb = "xcenter", "ycenter", "width", "height", "confidence", "class", "name"  # xywh columns
        for k, c in zip(["xyxy", "xyxyn", "xywh", "xywhn"], [ca, ca, cb, cb]):
            a = [[x[:5] + [int(x[5]), self.names[int(x[5])]] for x in x.tolist()] for x in getattr(self, k)]  # update
            setattr(new, k, [pd.DataFrame(x, columns=c) for x in a])
        return new

    def tolist(self):
        """
        Converts a Detections object into a list of individual detection results for iteration.

        Example: for result in results.tolist():
        """
        r = range(self.n)  # iterable
        return [
            Detections(
                [self.ims[i]],
                [self.pred[i]],
                [self.files[i]],
                self.times,
                self.names,
                self.s,
            )
            for i in r
        ]

    def print(self):
        """Logs the string representation of the current object's state via the LOGGER."""
        LOGGER.info(self.__str__())

    def __len__(self):
        """Returns the number of results stored, overrides the default len(results)."""
        return self.n

    def __str__(self):
        """Returns a string representation of the model's results, suitable for printing, overrides default
        print(results).
        """
        return self._run(pprint=True)  # print results

    def __repr__(self):
        """Returns a string representation of the YOLOv5 object, including its class and formatted results."""
        return f"YOLOv5 {self.__class__} instance
" + self.__str__()


class Proto(nn.Module):
    """YOLOv5 mask Proto module for segmentation models, performing convolutions and upsampling on input tensors."""

    def __init__(self, c1, c_=256, c2=32):
        """Initializes YOLOv5 Proto module for segmentation with input, proto, and mask channels configuration."""
        super().__init__()
        self.cv1 = Conv(c1, c_, k=3)
        self.upsample = nn.Upsample(scale_factor=2, mode="nearest")
        self.cv2 = Conv(c_, c_, k=3)
        self.cv3 = Conv(c_, c2)

    def forward(self, x):
        """Performs a forward pass using convolutional layers and upsampling on input tensor `x`."""
        return self.cv3(self.cv2(self.upsample(self.cv1(x))))


class Classify(nn.Module):
    """YOLOv5 classification head with convolution, pooling, and dropout layers for channel transformation."""

    def __init__(
        self, c1, c2, k=1, s=1, p=None, g=1, dropout_p=0.0
    ):  # ch_in, ch_out, kernel, stride, padding, groups, dropout probability
        """Initializes YOLOv5 classification head with convolution, pooling, and dropout layers for input to output
        channel transformation.
        """
        super().__init__()
        c_ = 1280  # efficientnet_b0 size
        self.conv = Conv(c1, c_, k, s, autopad(k, p), g)
        self.pool = nn.AdaptiveAvgPool2d(1)  # to x(b,c_,1,1)
        self.drop = nn.Dropout(p=dropout_p, inplace=True)
        self.linear = nn.Linear(c_, c2)  # to x(b,c2)

    def forward(self, x):
        """Processes input through conv, pool, drop, and linear layers; supports list concatenation input."""
        if isinstance(x, list):
            x = torch.cat(x, 1)
        return self.linear(self.drop(self.pool(self.conv(x)).flatten(1)))


#
class RepConv(nn.Module):
    """
    RepConv module with training and deploy modes.

    This module is used in RT-DETR and can fuse convolutions during inference for efficiency.

    Attributes:
        conv1 (Conv): 3x3 convolution.
        conv2 (Conv): 1x1 convolution.
        bn (nn.BatchNorm2d, optional): Batch normalization for identity branch.
        act (nn.Module): Activation function.
        default_act (nn.Module): Default activation function (SiLU).

    References:
        https://github.com/DingXiaoH/RepVGG/blob/main/repvgg.py
    """

    default_act = nn.ReLU6()  # default activation
    # def __init__(self, c1, c2, k=1, s=1, p=None, g=1, d=1, act=True)
    def __init__(self, c1, c2, k=3, s=1, p=1, g=1, d=1, act=True, bn=False, deploy=False):
        """
        Initialize RepConv module with given parameters.

        Args:
            c1 (int): Number of input channels.
            c2 (int): Number of output channels.
            k (int): Kernel size.
            s (int): Stride.
            p (int): Padding.
            g (int): Groups.
            d (int): Dilation.
            act (bool | nn.Module): Activation function.
            bn (bool): Use batch normalization for identity branch.
            deploy (bool): Deploy mode for inference.
        """
        super().__init__()
        assert k == 3 and p == 1
        self.g = g
        self.c1 = c1
        self.c2 = c2
        self.act = self.default_act if act is True else act if isinstance(act, nn.Module) else nn.Identity()

        self.bn = nn.BatchNorm2d(num_features=c1) if bn and c2 == c1 and s == 1 else None
        # def __init__(self, c1, c2, k=1, s=1, p=None, g=1, d=1, act=True)
        self.conv1 = Conv(c1, c2, k, s, p=p, g=g, act=False)
        self.conv2 = Conv(c1, c2, 1, s, p=(p - k // 2), g=g, act=False)

    def forward_fuse(self, x):
        """
        Forward pass for deploy mode.

        Args:
            x (torch.Tensor): Input tensor.

        Returns:
            (torch.Tensor): Output tensor.
        """
        return self.act(self.conv(x))

    def forward(self, x):
        """
        Forward pass for training mode.

        Args:
            x (torch.Tensor): Input tensor.

        Returns:
            (torch.Tensor): Output tensor.
        """
        id_out = 0 if self.bn is None else self.bn(x)
        return self.act(self.conv1(x) + self.conv2(x) + id_out)

    def get_equivalent_kernel_bias(self):
        """
        Calculate equivalent kernel and bias by fusing convolutions.

        Returns:
            (tuple): Tuple containing:
                - Equivalent kernel (torch.Tensor)
                - Equivalent bias (torch.Tensor)
        """
        kernel3x3, bias3x3 = self._fuse_bn_tensor(self.conv1)
        kernel1x1, bias1x1 = self._fuse_bn_tensor(self.conv2)
        kernelid, biasid = self._fuse_bn_tensor(self.bn)
        return kernel3x3 + self._pad_1x1_to_3x3_tensor(kernel1x1) + kernelid, bias3x3 + bias1x1 + biasid

    @staticmethod
    def _pad_1x1_to_3x3_tensor(kernel1x1):
        """
        Pad a 1x1 kernel to 3x3 size.

        Args:
            kernel1x1 (torch.Tensor): 1x1 convolution kernel.

        Returns:
            (torch.Tensor): Padded 3x3 kernel.
        """
        if kernel1x1 is None:
            return 0
        else:
            return torch.nn.functional.pad(kernel1x1, [1, 1, 1, 1])

    def _fuse_bn_tensor(self, branch):
        """
        Fuse batch normalization with convolution weights.

        Args:
            branch (Conv | nn.BatchNorm2d | None): Branch to fuse.

        Returns:
            (tuple): Tuple containing:
                - Fused kernel (torch.Tensor)
                - Fused bias (torch.Tensor)
        """
        if branch is None:
            return 0, 0
        if isinstance(branch, Conv):
            kernel = branch.conv.weight
            running_mean = branch.bn.running_mean
            running_var = branch.bn.running_var
            gamma = branch.bn.weight
            beta = branch.bn.bias
            eps = branch.bn.eps
        elif isinstance(branch, nn.BatchNorm2d):
            if not hasattr(self, "id_tensor"):
                input_dim = self.c1 // self.g
                kernel_value = np.zeros((self.c1, input_dim, 3, 3), dtype=np.float32)
                for i in range(self.c1):
                    kernel_value[i, i % input_dim, 1, 1] = 1
                self.id_tensor = torch.from_numpy(kernel_value).to(branch.weight.device)
            kernel = self.id_tensor
            running_mean = branch.running_mean
            running_var = branch.running_var
            gamma = branch.weight
            beta = branch.bias
            eps = branch.eps
        std = (running_var + eps).sqrt()
        t = (gamma / std).reshape(-1, 1, 1, 1)
        return kernel * t, beta - running_mean * gamma / std

    def fuse_convs(self):
        """Fuse convolutions for inference by creating a single equivalent convolution."""
        if hasattr(self, "conv"):
            return
        kernel, bias = self.get_equivalent_kernel_bias()

        self.conv = nn.Conv2d(
            in_channels=self.c1,
            out_channels=self.c2,
            kernel_size=self.s,
            stride=self.conv1.conv.stride,
            padding=self.conv1.conv.padding,
            dilation=self.conv1.conv.dilation,
            groups=self.conv1.conv.groups,
            bias=True,
        ).requires_grad_(False)
        self.conv.weight.data = kernel
        self.conv.bias.data = bias
        for para in self.parameters():
            para.detach_()
        self.__delattr__("conv1")
        self.__delattr__("conv2")
        if hasattr(self, "nm"):
            self.__delattr__("nm")
        if hasattr(self, "bn"):
            self.__delattr__("bn")
        if hasattr(self, "id_tensor"):
            self.__delattr__("id_tensor")


class ECA(nn.Module):
    """Constructs a ECA module.
    Args:
        channel: Number of channels of the input feature map
        k_size: Adaptive selection of kernel size
    """

    def __init__(self, c1, c2, k_size=3):
        super(ECA, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.conv = nn.Conv1d(1, 1, kernel_size=k_size, padding=(k_size - 1) // 2, bias=False)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        # feature descriptor on the global spatial information
        y = self.avg_pool(x)
        y = self.conv(y.squeeze(-1).transpose(-1, -2)).transpose(-1, -2).unsqueeze(-1)
        # Multi-scale information fusion
        y = self.sigmoid(y)

        return x * y.expand_as(x)

引入创新模块(进阶,可选)

%%writefile /kaggle/working/yolov5/models/yolo.py
# 修改 yolo.py
# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license
"""
YOLO-specific modules.

Usage:
    $ python models/yolo.py --cfg yolov5s.yaml
"""

import argparse
import contextlib
import math
import os
import platform
import sys
from copy import deepcopy
from pathlib import Path

import torch
import torch.nn as nn

FILE = Path(__file__).resolve()
ROOT = FILE.parents[1]  # YOLOv5 root directory
if str(ROOT) not in sys.path:
    sys.path.append(str(ROOT))  # add ROOT to PATH
if platform.system() != "Windows":
    ROOT = Path(os.path.relpath(ROOT, Path.cwd()))  # relative
from models.common import (
    ECA,
    C3,
    C3SPP,
    C3TR,
    SPP,
    SPPF,
    Bottleneck,
    BottleneckCSP,
    C3Ghost,
    C3x,
    Classify,
    Concat,
    Contract,
    Conv,
    RepConv,
    CrossConv,
    DetectMultiBackend,
    DWConv,
    DWConvTranspose2d,
    Expand,
    Focus,
    GhostBottleneck,
    GhostConv,
    Proto,
)
from models.experimental import MixConv2d
from utils.autoanchor import check_anchor_order
from utils.general import LOGGER, check_version, check_yaml, colorstr, make_divisible, print_args
from utils.plots import feature_visualization
from utils.torch_utils import (
    fuse_conv_and_bn,
    initialize_weights,
    model_info,
    profile,
    scale_img,
    select_device,
    time_sync,
)

try:
    import thop  # for FLOPs computation
except ImportError:
    thop = None


class Detect(nn.Module):
    """YOLOv5 Detect head for processing input tensors and generating detection outputs in object detection models."""

    stride = None  # strides computed during build
    dynamic = False  # force grid reconstruction
    export = False  # export mode

    def __init__(self, nc=80, anchors=(), ch=(), inplace=True):
        """Initializes YOLOv5 detection layer with specified classes, anchors, channels, and inplace operations."""
        super().__init__()
        self.nc = nc  # number of classes
        self.no = nc + 5  # number of outputs per anchor
        self.nl = len(anchors)  # number of detection layers
        self.na = len(anchors[0]) // 2  # number of anchors
        self.grid = [torch.empty(0) for _ in range(self.nl)]  # init grid
        self.anchor_grid = [torch.empty(0) for _ in range(self.nl)]  # init anchor grid
        self.register_buffer("anchors", torch.tensor(anchors).float().view(self.nl, -1, 2))  # shape(nl,na,2)
        self.m = nn.ModuleList(nn.Conv2d(x, self.no * self.na, 1) for x in ch)  # output conv
        self.inplace = inplace  # use inplace ops (e.g. slice assignment)

    def forward(self, x):
        """Processes input through YOLOv5 layers, altering shape for detection: `x(bs, 3, ny, nx, 85)`."""
        z = []  # inference output
        for i in range(self.nl):
            x[i] = self.m[i](x[i])  # conv
            bs, _, ny, nx = x[i].shape  # x(bs,255,20,20) to x(bs,3,20,20,85)
            x[i] = x[i].view(bs, self.na, self.no, ny, nx).permute(0, 1, 3, 4, 2).contiguous()

            if not self.training:  # inference
                if self.dynamic or self.grid[i].shape[2:4] != x[i].shape[2:4]:
                    self.grid[i], self.anchor_grid[i] = self._make_grid(nx, ny, i)

                if isinstance(self, Segment):  # (boxes + masks)
                    xy, wh, conf, mask = x[i].split((2, 2, self.nc + 1, self.no - self.nc - 5), 4)
                    xy = (xy.sigmoid() * 2 + self.grid[i]) * self.stride[i]  # xy
                    wh = (wh.sigmoid() * 2) ** 2 * self.anchor_grid[i]  # wh
                    y = torch.cat((xy, wh, conf.sigmoid(), mask), 4)
                else:  # Detect (boxes only)
                    xy, wh, conf = x[i].sigmoid().split((2, 2, self.nc + 1), 4)
                    xy = (xy * 2 + self.grid[i]) * self.stride[i]  # xy
                    wh = (wh * 2) ** 2 * self.anchor_grid[i]  # wh
                    y = torch.cat((xy, wh, conf), 4)
                z.append(y.view(bs, self.na * nx * ny, self.no))

        return x if self.training else (torch.cat(z, 1),) if self.export else (torch.cat(z, 1), x)

    def _make_grid(self, nx=20, ny=20, i=0, torch_1_10=check_version(torch.__version__, "1.10.0")):
        """Generates a mesh grid for anchor boxes with optional compatibility for torch versions < 1.10."""
        d = self.anchors[i].device
        t = self.anchors[i].dtype
        shape = 1, self.na, ny, nx, 2  # grid shape
        y, x = torch.arange(ny, device=d, dtype=t), torch.arange(nx, device=d, dtype=t)
        yv, xv = torch.meshgrid(y, x, indexing="ij") if torch_1_10 else torch.meshgrid(y, x)  # torch>=0.7 compatibility
        grid = torch.stack((xv, yv), 2).expand(shape) - 0.5  # add grid offset, i.e. y = 2.0 * x - 0.5
        anchor_grid = (self.anchors[i] * self.stride[i]).view((1, self.na, 1, 1, 2)).expand(shape)
        return grid, anchor_grid


class Segment(Detect):
    """YOLOv5 Segment head for segmentation models, extending Detect with mask and prototype layers."""

    def __init__(self, nc=80, anchors=(), nm=32, npr=256, ch=(), inplace=True):
        """Initializes YOLOv5 Segment head with options for mask count, protos, and channel adjustments."""
        super().__init__(nc, anchors, ch, inplace)
        self.nm = nm  # number of masks
        self.npr = npr  # number of protos
        self.no = 5 + nc + self.nm  # number of outputs per anchor
        self.m = nn.ModuleList(nn.Conv2d(x, self.no * self.na, 1) for x in ch)  # output conv
        self.proto = Proto(ch[0], self.npr, self.nm)  # protos
        self.detect = Detect.forward

    def forward(self, x):
        """Processes input through the network, returning detections and prototypes; adjusts output based on
        training/export mode.
        """
        p = self.proto(x[0])
        x = self.detect(self, x)
        return (x, p) if self.training else (x[0], p) if self.export else (x[0], p, x[1])


class BaseModel(nn.Module):
    """YOLOv5 base model."""

    def forward(self, x, profile=False, visualize=False):
        """Executes a single-scale inference or training pass on the YOLOv5 base model, with options for profiling and
        visualization.
        """
        return self._forward_once(x, profile, visualize)  # single-scale inference, train

    def _forward_once(self, x, profile=False, visualize=False):
        """Performs a forward pass on the YOLOv5 model, enabling profiling and feature visualization options."""
        y, dt = [], []  # outputs
        for m in self.model:
            if m.f != -1:  # if not from previous layer
                x = y[m.f] if isinstance(m.f, int) else [x if j == -1 else y[j] for j in m.f]  # from earlier layers
            if profile:
                self._profile_one_layer(m, x, dt)
            x = m(x)  # run
            y.append(x if m.i in self.save else None)  # save output
            if visualize:
                feature_visualization(x, m.type, m.i, save_dir=visualize)
        return x

    def _profile_one_layer(self, m, x, dt):
        """Profiles a single layer's performance by computing GFLOPs, execution time, and parameters."""
        c = m == self.model[-1]  # is final layer, copy input as inplace fix
        o = thop.profile(m, inputs=(x.copy() if c else x,), verbose=False)[0] / 1e9 * 2 if thop else 0  # FLOPs
        t = time_sync()
        for _ in range(10):
            m(x.copy() if c else x)
        dt.append((time_sync() - t) * 100)
        if m == self.model[0]:
            LOGGER.info(f"{'time (ms)':>10s} {'GFLOPs':>10s} {'params':>10s}  module")
        LOGGER.info(f"{dt[-1]:10.2f} {o:10.2f} {m.np:10.0f}  {m.type}")
        if c:
            LOGGER.info(f"{sum(dt):10.2f} {'-':>10s} {'-':>10s}  Total")

    def fuse(self):
        """Fuses Conv2d() and BatchNorm2d() layers in the model to improve inference speed."""
        LOGGER.info("Fusing layers... ")
        for m in self.model.modules():
            if isinstance(m, (Conv, DWConv)) and hasattr(m, "bn"):
                m.conv = fuse_conv_and_bn(m.conv, m.bn)  # update conv
                delattr(m, "bn")  # remove batchnorm
                m.forward = m.forward_fuse  # update forward
        self.info()
        return self

    def info(self, verbose=False, img_size=640):
        """Prints model information given verbosity and image size, e.g., `info(verbose=True, img_size=640)`."""
        model_info(self, verbose, img_size)

    def _apply(self, fn):
        """Applies transformations like to(), cpu(), cuda(), half() to model tensors excluding parameters or registered
        buffers.
        """
        self = super()._apply(fn)
        m = self.model[-1]  # Detect()
        if isinstance(m, (Detect, Segment)):
            m.stride = fn(m.stride)
            m.grid = list(map(fn, m.grid))
            if isinstance(m.anchor_grid, list):
                m.anchor_grid = list(map(fn, m.anchor_grid))
        return self


class DetectionModel(BaseModel):
    """YOLOv5 detection model class for object detection tasks, supporting custom configurations and anchors."""

    def __init__(self, cfg="yolov5s.yaml", ch=3, nc=None, anchors=None):
        """Initializes YOLOv5 model with configuration file, input channels, number of classes, and custom anchors."""
        super().__init__()
        if isinstance(cfg, dict):
            self.yaml = cfg  # model dict
        else:  # is *.yaml
            import yaml  # for torch hub

            self.yaml_file = Path(cfg).name
            with open(cfg, encoding="ascii", errors="ignore") as f:
                self.yaml = yaml.safe_load(f)  # model dict

        # Define model
        ch = self.yaml["ch"] = self.yaml.get("ch", ch)  # input channels
        if nc and nc != self.yaml["nc"]:
            LOGGER.info(f"Overriding model.yaml nc={self.yaml['nc']} with nc={nc}")
            self.yaml["nc"] = nc  # override yaml value
        if anchors:
            LOGGER.info(f"Overriding model.yaml anchors with anchors={anchors}")
            self.yaml["anchors"] = round(anchors)  # override yaml value
        self.model, self.save = parse_model(deepcopy(self.yaml), ch=[ch])  # model, savelist
        self.names = [str(i) for i in range(self.yaml["nc"])]  # default names
        self.inplace = self.yaml.get("inplace", True)

        # Build strides, anchors
        m = self.model[-1]  # Detect()
        if isinstance(m, (Detect, Segment)):

            def _forward(x):
                """Passes the input 'x' through the model and returns the processed output."""
                return self.forward(x)[0] if isinstance(m, Segment) else self.forward(x)

            s = 256  # 2x min stride
            m.inplace = self.inplace
            m.stride = torch.tensor([s / x.shape[-2] for x in _forward(torch.zeros(1, ch, s, s))])  # forward
            check_anchor_order(m)
            m.anchors /= m.stride.view(-1, 1, 1)
            self.stride = m.stride
            self._initialize_biases()  # only run once

        # Init weights, biases
        initialize_weights(self)
        self.info()
        LOGGER.info("")

    def forward(self, x, augment=False, profile=False, visualize=False):
        """Performs single-scale or augmented inference and may include profiling or visualization."""
        if augment:
            return self._forward_augment(x)  # augmented inference, None
        return self._forward_once(x, profile, visualize)  # single-scale inference, train

    def _forward_augment(self, x):
        """Performs augmented inference across different scales and flips, returning combined detections."""
        img_size = x.shape[-2:]  # height, width
        s = [1, 0.83, 0.67]  # scales
        f = [None, 3, None]  # flips (2-ud, 3-lr)
        y = []  # outputs
        for si, fi in zip(s, f):
            xi = scale_img(x.flip(fi) if fi else x, si, gs=int(self.stride.max()))
            yi = self._forward_once(xi)[0]  # forward
            # cv2.imwrite(f'img_{si}.jpg', 255 * xi[0].cpu().numpy().transpose((1, 2, 0))[:, :, ::-1])  # save
            yi = self._descale_pred(yi, fi, si, img_size)
            y.append(yi)
        y = self._clip_augmented(y)  # clip augmented tails
        return torch.cat(y, 1), None  # augmented inference, train

    def _descale_pred(self, p, flips, scale, img_size):
        """De-scales predictions from augmented inference, adjusting for flips and image size."""
        if self.inplace:
            p[..., :4] /= scale  # de-scale
            if flips == 2:
                p[..., 1] = img_size[0] - p[..., 1]  # de-flip ud
            elif flips == 3:
                p[..., 0] = img_size[1] - p[..., 0]  # de-flip lr
        else:
            x, y, wh = p[..., 0:1] / scale, p[..., 1:2] / scale, p[..., 2:4] / scale  # de-scale
            if flips == 2:
                y = img_size[0] - y  # de-flip ud
            elif flips == 3:
                x = img_size[1] - x  # de-flip lr
            p = torch.cat((x, y, wh, p[..., 4:]), -1)
        return p

    def _clip_augmented(self, y):
        """Clips augmented inference tails for YOLOv5 models, affecting first and last tensors based on grid points and
        layer counts.
        """
        nl = self.model[-1].nl  # number of detection layers (P3-P5)
        g = sum(4**x for x in range(nl))  # grid points
        e = 1  # exclude layer count
        i = (y[0].shape[1] // g) * sum(4**x for x in range(e))  # indices
        y[0] = y[0][:, :-i]  # large
        i = (y[-1].shape[1] // g) * sum(4 ** (nl - 1 - x) for x in range(e))  # indices
        y[-1] = y[-1][:, i:]  # small
        return y

    def _initialize_biases(self, cf=None):
        """
        Initializes biases for YOLOv5's Detect() module, optionally using class frequencies (cf).

        For details see https://arxiv.org/abs/1708.02002 section 3.3.
        """
        # cf = torch.bincount(torch.tensor(np.concatenate(dataset.labels, 0)[:, 0]).long(), minlength=nc) + 1.
        m = self.model[-1]  # Detect() module
        for mi, s in zip(m.m, m.stride):  # from
            b = mi.bias.view(m.na, -1)  # conv.bias(255) to (3,85)
            b.data[:, 4] += math.log(8 / (640 / s) ** 2)  # obj (8 objects per 640 image)
            b.data[:, 5 : 5 + m.nc] += (
                math.log(0.6 / (m.nc - 0.99999)) if cf is None else torch.log(cf / cf.sum())
            )  # cls
            mi.bias = torch.nn.Parameter(b.view(-1), requires_grad=True)


Model = DetectionModel  # retain YOLOv5 'Model' class for backwards compatibility


class SegmentationModel(DetectionModel):
    """YOLOv5 segmentation model for object detection and segmentation tasks with configurable parameters."""

    def __init__(self, cfg="yolov5s-seg.yaml", ch=3, nc=None, anchors=None):
        """Initializes a YOLOv5 segmentation model with configurable params: cfg (str) for configuration, ch (int) for channels, nc (int) for num classes, anchors (list)."""
        super().__init__(cfg, ch, nc, anchors)


class ClassificationModel(BaseModel):
    """YOLOv5 classification model for image classification tasks, initialized with a config file or detection model."""

    def __init__(self, cfg=None, model=None, nc=1000, cutoff=10):
        """Initializes YOLOv5 model with config file `cfg`, input channels `ch`, number of classes `nc`, and `cuttoff`
        index.
        """
        super().__init__()
        self._from_detection_model(model, nc, cutoff) if model is not None else self._from_yaml(cfg)

    def _from_detection_model(self, model, nc=1000, cutoff=10):
        """Creates a classification model from a YOLOv5 detection model, slicing at `cutoff` and adding a classification
        layer.
        """
        if isinstance(model, DetectMultiBackend):
            model = model.model  # unwrap DetectMultiBackend
        model.model = model.model[:cutoff]  # backbone
        m = model.model[-1]  # last layer
        ch = m.conv.in_channels if hasattr(m, "conv") else m.cv1.conv.in_channels  # ch into module
        c = Classify(ch, nc)  # Classify()
        c.i, c.f, c.type = m.i, m.f, "models.common.Classify"  # index, from, type
        model.model[-1] = c  # replace
        self.model = model.model
        self.stride = model.stride
        self.save = []
        self.nc = nc

    def _from_yaml(self, cfg):
        """Creates a YOLOv5 classification model from a specified *.yaml configuration file."""
        self.model = None

# 模型构建
def parse_model(d, ch):
    """Parses a YOLOv5 model from a dict `d`, configuring layers based on input channels `ch` and model architecture."""
    LOGGER.info(f"
{'':>3}{'from':>18}{'n':>3}{'params':>10}  {'module':<40}{'arguments':<30}")
    anchors, nc, gd, gw, act, ch_mul = (
        d["anchors"],
        d["nc"],
        d["depth_multiple"],
        d["width_multiple"],
        d.get("activation"),
        d.get("channel_multiple"),
    )
    # 如果 act 配置项存在,就根据配置修改卷积层的默认激活函数。
    if act:
        Conv.default_act = eval(act)  # redefine default activation, i.e. Conv.default_act = nn.SiLU()
        RepConv.default_act = eval(act)

        LOGGER.info(f"{colorstr('activation:')} {act}")  # print
    if not ch_mul:
        ch_mul = 8
    # 每个锚点的数量,通常为锚点列表中的每对(width, height)
    na = (len(anchors[0]) // 2) if isinstance(anchors, list) else anchors  # number of anchors
    # 每个输出的通道数,计算公式为 锚点数 * (类别数 + 5),5 代表边界框的 4 个坐标加上置信度。
    no = na * (nc + 5)  # number of outputs = anchors * (classes + 5)

    layers, save, c2 = [], [], ch[-1]  # layers, savelist, ch out
    # 解析每一行结构
    for i, (f, n, m, args) in enumerate(d["backbone"] + d["head"]):  # from, number, module, args
        # 动态解析字符串为对应的类
        m = eval(m) if isinstance(m, str) else m  # eval strings
        for j, a in enumerate(args):
            with contextlib.suppress(NameError):
                args[j] = eval(a) if isinstance(a, str) else a  # eval strings
        # 重复数量
        n = n_ = max(round(n * gd), 1) if n > 1 else n  # depth gain
        # 卷积层处理
        if m in {
            Conv,
            RepConv,
            GhostConv,
            Bottleneck,
            GhostBottleneck,
            SPP,
            SPPF,
            DWConv,
            MixConv2d,
            Focus,
            CrossConv,
            BottleneckCSP,
            C3,
            ECA,
            C3TR,
            C3SPP,
            C3Ghost,
            nn.ConvTranspose2d,
            DWConvTranspose2d,
            C3x,
        }:
            c1, c2 = ch[f], args[0]
            if c2 != no:  # if not output
                c2 = make_divisible(c2 * gw, ch_mul)

            args = [c1, c2, *args[1:]]
            if m in {BottleneckCSP, C3, C3TR, C3Ghost, C3x}:
                args.insert(2, n)  # number of repeats
                n = 1
        elif m is nn.BatchNorm2d:
            args = [ch[f]]
        elif m is Concat:
            c2 = sum(ch[x] for x in f)
        # TODO: channel, gw, gd
        elif m in {Detect, Segment}:
            args.append([ch[x] for x in f])
            if isinstance(args[1], int):  # number of anchors
                args[1] = [list(range(args[1] * 2))] * len(f)
            if m is Segment:
                args[3] = make_divisible(args[3] * gw, ch_mul)
        elif m is Contract:
            c2 = ch[f] * args[0] ** 2
        elif m is Expand:
            c2 = ch[f] // args[0] ** 2
        else:
            c2 = ch[f]

        m_ = nn.Sequential(*(m(*args) for _ in range(n))) if n > 1 else m(*args)  # module
        t = str(m)[8:-2].replace("__main__.", "")  # module type
        np = sum(x.numel() for x in m_.parameters())  # number params
        m_.i, m_.f, m_.type, m_.np = i, f, t, np  # attach index, 'from' index, type, number params
        LOGGER.info(f"{i:>3}{str(f):>18}{n_:>3}{np:10.0f}  {t:<40}{str(args):<30}")  # print
        save.extend(x % i for x in ([f] if isinstance(f, int) else f) if x != -1)  # append to savelist
        # 保存结构层
        layers.append(m_)
        if i == 0:
            ch = []
        ch.append(c2)
    return nn.Sequential(*layers), sorted(save)


if __name__ == "__main__":
    parser = argparse.ArgumentParser()
    parser.add_argument("--cfg", type=str, default="yolov5s_custom.yaml", help="model.yaml")
    parser.add_argument("--batch-size", type=int, default=1, help="total batch size for all GPUs")
    parser.add_argument("--device", default="cpu", help="cuda device, i.e. 0 or 0,1,2,3 or cpu")
    parser.add_argument("--profile", action="store_true", help="profile model speed")
    parser.add_argument("--line-profile", action="store_true", help="profile model speed layer by layer")
    parser.add_argument("--test", action="store_true", help="test all yolo*.yaml")
    opt = parser.parse_args()
    opt.cfg = check_yaml(opt.cfg)  # check YAML
    print_args(vars(opt))
    device = select_device(opt.device)

    # Create model
    im = torch.rand(opt.batch_size, 3, 640, 640).to(device)
    model = Model(opt.cfg).to(device)

    # Options
    if opt.line_profile:  # profile layer by layer
        model(im, profile=True)

    elif opt.profile:  # profile forward-backward
        results = profile(input=im, ops=[model], n=3)

    elif opt.test:  # test all models
        for cfg in Path(ROOT / "models").rglob("yolo*.yaml"):
            try:
                _ = Model(cfg)
            except Exception as e:
                print(f"Error in {cfg}: {e}")

    else:  # report fused model summary
        model.fuse()

训练模型


直接训练命令即可开始畅想漫长的等待时刻,现在是抖音时间!!!

!python train.py --data coco128.yaml --cfg yolov5n.yaml --weights '' --epochs 150 --batch-size 64 --img-size 640  --hyp hyp.scratch-low.yaml --device 0 

        需要下载指定文件夹的,比如训练结果,现在压缩,然后在右侧选中文件,右边点击三个小点进行下载:

没反应的请F12抓取下载链接,直接复制到浏览器搜索栏即可下载。

import os
 import zipfile
 ​
 def zip_folder(source_folder, output_zip):
     """
     将指定目录打包为 ZIP 文件。
     
     :param source_folder: 需要压缩的目录路径
     :param output_zip: 输出 ZIP 文件的完整路径(包含 .zip)
     """
     with zipfile.ZipFile(output_zip, 'w', zipfile.ZIP_DEFLATED) as zipf:
         for root, dirs, files in os.walk(source_folder):
             for file in files:
                 file_path = os.path.join(root, file)
                 arcname = os.path.relpath(file_path, source_folder)  # 保持相对路径
                 zipf.write(file_path, arcname)
     print(f"文件夹 '{source_folder}' 已成功压缩至 '{output_zip}'")
 ​
 if __name__ == "__main__":
     source_directory = "./runs/train/exp2"  # 需要压缩的文件夹路径
     output_zip_path = "./ECA_4_9_150.zip"  # 目标 ZIP 文件路径
     
     # 确保输出目录存在
     os.makedirs(os.path.dirname(output_zip_path), exist_ok=True)
     
     zip_folder(source_directory, output_zip_path)
 # 终止训练
 # !pkill -9 -f train.py

文章总结


        本文详细介绍了使用 Kaggel 免费服务器进行YOLOv5模型训练,整个流程同样适用于其他训练框架。本文还提供了YOLOv5改进代码示例。

感谢阅览,如果你喜欢该内容的话,可以点赞,收藏,转发。由于 Koro 能力有限,有任何问题请在评论区内提出,Koro 看到后第一时间回复您!!!


其他精彩内容:


参考内容:

本文地址:https://www.vps345.com/8907.html

搜索文章

Tags

docker 容器 运维 java-rabbitmq java 智能驾驶 BEVFusion Ubuntu 服务器带宽 上行带宽 上行速率 什么是上行带宽? PV计算 带宽计算 流量带宽 #docker #centos #容器 macos windows linux 服务器 嵌入式硬件 pytorch tensorflow #windows #自动化 #运维 网络 远程连接 vscode github ubuntu 无人机 机器人 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP AI Dify 大模型应用 CC攻击 攻击怎么办 ide #git #ssh #windows ubuntu24.04 todesk c# 开发语言 网络协议 网络安全 云原生 安全 ssh漏洞 ssh9.9p2 CVE-2025-23419 ai nlp #linux #命令 #网络 python c++ php ssh remote-ssh centos 人工智能 harmonyos 华为 react native #harmonyos #android #ios #java #华为 #ubuntu #linux 边缘计算 具身智能 强化学习 #macos #EasyConnect conda ROS 自动驾驶 经验分享 IPMI wireshark 部署 ollama llm 自动化 深度学习 远程工作 #javascript #开发语言 #ecmascript #jenkins #人工智能 #云原生 tomcat debian wps 安卓 micropython esp32 单片机 mqtt 物联网 语言模型 AI大模型 DeepSeek agi 中间件 web安全 可信计算技术 安全架构 网络攻击模型 #区块链 #智能合约 数据库 mysql adb LLM 大模型面经 大模型 职场和发展 Deepseek 大模型学习 n8n 存储维护 NetApp存储 EMC存储 prometheus grafana 虚拟机 网络药理学 生信 分子对接 autodock mgltools PDB PubChem CosyVoice AIGC comfyui comfyui教程 zabbix r语言 数据挖掘 数据可视化 数据分析 机器学习 web3 区块链 区块链项目 开源 dity make ddos flutter Google pay Apple pay 服务器安全 网络安全策略 防御服务器攻击 安全威胁和解决方案 程序员博客保护 数据保护 安全最佳实践 kylin 快捷键 旋转屏幕 自动操作 持续部署 jenkins Playwright pythonai PlaywrightMCP 华为云 华为od intellij-idea 3d golang svn 智能路由器 Linux 维护模式 算法 Agent llama CrewAI 游戏引擎 学习 自然语言处理 bash 编辑器 pip html http json css DevEco Studio HarmonyOS OpenHarmony 真机调试 ssl springsecurity6 oauth2 授权服务器 前后端分离 git uni-app m3u8 HLS 小程序 移动端H5网页 APP安卓苹果ios 监控画面 直播视频流 django fastapi 后端 智能合约 压力测试 哈希算法 MVS 海康威视相机 Java进程管理 DevOps自动化 脚本执行 跨平台开发 远程运维 Apache Exec JSch rag ragflow 大模型部署 YOLO 目标检测 rk3588 npu rknn-toolkit2 gpu算力 stm32 tcp/ip 群晖 低代码 MCP onlyoffice 在线office 1024程序员节 单例模式 课程设计 鸿蒙 混合开发 环境安装 JDK AI编程 visual studio code 阿里云 云计算 spring boot spring bug 运维开发 网络工程师 华为认证 YOLOv8 NPU Atlas800 A300I pro MacMini Mac 迷你主机 mini Apple unity GameFramework HybridCLR Unity编辑器扩展 自动化工具 性能优化 apache pdf xml c语言 计算机网络 linux环境变量 gnu unix iot 计算机视觉 opencv #激光雷达 #览沃 #ubuntu22.04 #ros2 #大疆 dash 正则表达式 ESXi Dell HPE 联想 浪潮 kvm qemu libvirt qt linuxdeployqt 打包部署程序 appimagetool nginx chatgpt 负载均衡 yolov5 ruoyi ffmpeg 音视频 视频编解码 Kylin-Server 国产操作系统 服务器安装 飞牛NAS 飞牛OS MacBook Pro typescript 微信 nvcc cuda A100 搜索引擎 程序员 prompt 电路仿真 multisim 硬件工程师 硬件工程师学习 电路图 电路分析 仪器仪表 实时音视频 实时互动 设计模式 redis Cline GCC crosstool-ng 其他 appium 软件测试 自动化测试 功能测试 程序人生 爬虫 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 rtsp h.265 vite Svelte AI提示词优化 open webui gpt transformer okhttp android 技能大赛 arm开发 milvus 向量数据库 SSH Linux Xterminal uniapp vue postgresql pgpool 银河麒麟 信创国产化 达梦数据库 vmamba 策略模式 mac mac安装软件 mac卸载软件 mac book mamba oceanbase 传统数据库升级 银行 CUDA PyTorch aarch64 编译安装 HPC 交换机 硬件 设备 GPU PCI-Express HTTP 服务器控制 ESP32 DeepSeek android studio 交互 websocket chrome chrome devtools selenium chromedriver 笔记 mybatis deepseek fpga开发 kubernetes k8s searxng MobaXterm 文件传输 Qwen3 qwen3 32b vllm 本地部署 动态库 GCC编译器 -fPIC -shared rpc 远程过程调用 Windows环境 MS Materials ansible playbook 自动化运维 硬件工程 程序 编程 内存 性能分析 大模型压力测试 EvalScope dify dify部署 iventoy VmWare OpenEuler DevOps 大数据 软件交付 数据驱动 应用场景 数据安全 三维重建 #embedding 神经网络 rust 前端 鲲鹏 昇腾 rpa Docker Docker Compose Kubernetes elasticsearch SenseVoice 大模型入门 大模型教程 glibc 鸿蒙系统 hdc 鸿蒙NEXT 数据集 蓝桥杯 springboot容器部署 springboot容器化部署 微服务容器化负载均衡配置 微服务容器多节点部署 微服务多节点部署配置负载均衡 Autoware 辅助驾驶 华为机试 C++ Java Python rc.local 开机自启 systemd 麒麟 远程桌面 图像处理 EVE-NG 嵌入式 linux驱动开发 截图 录屏 gif 工具 进程信号 openjdk 嵌入式Linux IPC #网络 #dify 知识图谱 vue.js javascript 服务器配置 FunASR ASR LVS HTTP状态码 客户端错误 服务器端错误 API设计 openssl 智能体开发 SSE LLM Web APP Streamlit dubbo Windsurf oracle 关系型 分布式 WSL2 上安装 Ubuntu LLMs GenAI LLM 推理优化 LLM serving node.js 安全威胁分析 安全性测试 microsoft coze Claude Desktop Claude MCP Windows Cli MCP 计算机学习路线 编程语言选择 王者荣耀 视频平台 录像 RTSP 视频转发 性能测试 视频流 存储 安全漏洞 信息安全 进程间通信 智能手机 流程图 mermaid 开发工具 基础指令 指令 计算机外设 openwrt USB网络共享 ui 金融 FTP 服务器 EasyConnect llama3 Chatglm 开源大模型 语音识别 chatbox 监控 langchain deep learning 相机 cron crontab日志 毕设 多线程服务器 Linux网络编程 硬件架构 系统架构 pycharm 三级等保 服务器审计日志备份 科技 Windows ai工具 mcu 信息与通信 AutoDL Qwen2.5-VL harmonyOS面试题 UOS 开机自启动 桌面快捷方式 GPU训练 wsl seatunnel 工作流自动化工具 bushujiaocheng 部署教程 算家云 AI算力 租算力 到算家云 驱动开发 嵌入式实习 DNS 大大通 第三代半导体 碳化硅 企业微信 servlet 安卓模拟器 burpsuite 安全工具 mac安全工具 burp安装教程 渗透工具 arkUI arkTs lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 YOLOv12 QQ bot 政务 分布式系统 监控运维 Prometheus Grafana Docker Hub docker pull 镜像源 daemon.json pygame rabbitmq vue3 架构 openEuler 欧拉系统 Apache Flume 数据采集 安装部署 配置优化 高级功能 大数据工具集成 MCP server agent C/S 代码调试 ipdb 多线程 进程 pthread 系统 zephyr 主从复制 计算生物学 生物信息学 生物信息 基因组 换源 国内源 Debian Kali 渗透 #人工智能 #深度学习 #机器学习 #考研 #计算机视觉 个人开发 飞腾处理器 国产化 jvm 麒麟OS 软件工程 软件构建 iNode Macos webpack #chrome #mac #拓展程序 #禁用 Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer docker desktop image word MLLMs VLM gpt-4v 游戏 maven 学习方法 GIS 遥感 WebGIS 程序化交易 量化交易 高频交易 yum apt HarmonyOS Next 操作系统 火绒安全 mybase 工作流 workflow ragflow 源码启动 eureka spring cloud 知识库 本地化部署 ShapeFile GeoJSON Nginx devops 防火墙 ufw stm32项目 kind xrdp 环境迁移 jupyter 云服务器 flask web3.py 外网访问 内网穿透 端口映射 opensearch helm Deepseek-R1 私有化部署 推理模型 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 elk muduo 网络库 hadoop big data 云计算面试题 CH340 串口驱动 CH341 uart 485 环境部署 Claude flash-attention 报错 #centos #vscode #ubuntu 集成学习 集成测试 系统安全 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 统信 虚拟机安装 HCIE 数通 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 游戏服务器 Minecraft element-ui 上传视频并预览视频 vue上传本地视频及进度条功能 vue2选择视频上传到服务器 upload上传视频组件插件 批量上传视频 限制单个上传视频 sdkman vim list 网页服务器 web服务器 镜像 nohup 异步执行 ACL 流量控制 基本ACL 网络管理 规则配置 百度 paddlepaddle FTP服务器 雨云 NPS NAS Termux Samba tidb GLIBC 微信开放平台 微信公众平台 微信公众号配置 Ollama Chatbox 信号处理 tcpdump glm4 gitee gitee go 计算机系统 网络编程 wsl2 前端框架 电子信息 通信工程 毕业 UEFI Legacy MBR GPT U盘安装操作系统 chromium dpi SecureCRT Bug解决 Qt platform OpenCV ros 树莓派项目 网络结构图 yaml Ultralytics 可视化 缓存 Vmamba 线程 测试工具 程序员创富 微服务 数据结构 电脑 gcc centos 7 卷积神经网络 fiddler 物理地址 页表 虚拟地址 考研 开源软件 visualstudio H3C arm IMM 统信操作系统 UOS1070e webrtc 话题通信 服务通信 matlab Spring AI 大模型应用开发 AI 应用商业化 Cursor cmake nvm node 华为鸿蒙系统 ArkTS语言 Component 生命周期 条件渲染 Image图片组件 RTX5090 torch2.7.0 RAGFlow 本地知识库部署 DeepSeek R1 模型 环境配置 eclipse 安装MySQL iBMC UltraISO 常用命令 文本命令 目录命令 https 反向代理 RAID RAID技术 磁盘 grub 版本升级 扩容 jar windows 服务器安装 服务器扩容没有扩容成功 mariadb umeditor粘贴word ueditor粘贴word ueditor复制word ueditor上传word图片 抽象工厂模式 trae 软件需求 embedding vmware arcgis gitlab cursor latex IPv4/IPv6双栈 双栈技术 网路规划设计 ensp综合实验 IPv4过渡IPv6 IPv4与IPv6 小智 RAG Multi-Agent 烟雾检测 yolo检测 消防检测 线程互斥与同步 RustDesk自建服务器 rustdesk服务器 docker rustdesk open Euler dde deepin 统信UOS sql 游戏程序 Dell R750XS triton 模型分析 RockyLinux paddle react.js #IntelliJ IDEA #Java #Kotlin 远程 命令 执行 sshpass 操作 rnn perl 自定义客户端 SAS Pyppeteer ftp服务 文件上传 PyQt PySide6 mcp mcp协议 go-zero mcp服务器 vmware tools VMware 生成对抗网络 gemini gemini国内访问 gemini api gemini中转搭建 Cloudflare nftables maxkb ARG archlinux kde plasma 迁移 openeuler yolov8 抓包工具 Linux Vim docker compose 终端工具 远程工具 论文笔记 记账软件 springboot 容器部署 框架搭建 rust腐蚀 智能硬件 宝塔面板 HP Anyware NVML nvidia-smi ipython #服务器 cudnn nvidia sequoiaDB NFS 产品经理 代码复审 codereview code-review 腾讯云大模型知识引擎 nac 802.1 portal can 线程池 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 k8s部署 MySQL8.0 高可用集群(1主2从) Alist rclone mount 挂载 网盘 RagFlow udp VSCode 漏洞 密码学 我的世界 我的世界联机 数码 MQTT mosquitto 消息队列 postman 树莓派 Navidrome AI-native 7-zip 矩阵乘法 3D深度学习 ip 虚拟显示器 远程控制 我的世界服务器搭建 minecraft burp suite 抓包 5G 文档 lvgl8.3 lvgl9.2 lvgl lvgl安装 #服务器 #c语言 #git #vim PX4 GPUGEEK 代理模式 物联网开发 ESP32 html5 less hive ranger MySQL8.0 源代码管理 重启 排查 系统重启 日志 原因 CPU 使用率 系统监控工具 linux 命令 实时内核 Obsidian Dataview shell libreoffice word转pdf 安装 模块测试 DocFlow ecmascript KVM 网络建设与运维 网络搭建 神州数码 神州数码云平台 云平台 性能调优 安全代理 etcd cfssl go deepseek-v3 ktransformers ISO镜像作为本地源 ukui 麒麟kylinos 弹性计算 裸金属服务器 弹性裸金属服务器 虚拟化 jmeter bigdata 微信小程序 notepad++ 性能监控 Uvicorn virtualenv jellyfin nas python2 ROS2 stable diffusion AI作画 g++ g++13 ollama api ollama外网访问 IP地址 IPv4 IPv6 端口号 计算机基础 FS 文件系统 bootfs rootfs linux目录 Kali Linux 虚拟局域网 前端面试题 LSTM dns是什么 如何设置电脑dns dns应该如何设置 C语言 odoo 服务器动作 Server action 僵尸世界大战 游戏服务器搭建 豆瓣 追剧助手 迅雷 adobe midjourney AI写作 KylinV10 麒麟操作系统 Vmware 分布式账本 信任链 共识算法 ECS API 状态模式 源码 毕业设计 数学建模 ArkTs ArkUI iTerm2 zookeeper 打不开xxx软件 无法检查其是否包含恶意软件 开发环境 微软 #算法 #数据清洗 eNSP 企业网络规划 华为eNSP 网络规划 拓扑图 人工智能生成内容 ip命令 新增网卡 新增IP 启动网卡 文心一言 kubeless 软考设计师 中级设计师 SQL 软件设计师 rocketmq 计算机八股 升级 CVE-2024-7347 大模型微调 thingsboard 分布式训练 CDN Netty OpenGL 图形渲染 若依 内存不足 outofmemory Key exchange 主包过大 #c++ xcode MacOS 向日葵 隐藏文件 sqlserver easyTier 组网 渗透测试 vnc 鸿蒙项目 ShenTong Logstash 日志采集 miniapp 调试 debug 断点 网络API请求调试方法 kali 共享文件夹 Mermaid 可视化图表 自动化生成 jdk postgres Docker Desktop Dify重启后重新初始化 创业创新 面试 仙盟大衍灵机 东方仙盟 仙盟创梦IDE Trae IDE AI 原生集成开发环境 Trae AI 云电竞 云电脑 单一职责原则 express CORS 跨域 无桌面 命令行 kafka 云服务 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 p2p ios AI员工 rsync CPU架构 服务器cpu 开发效率 Windmill struts 物联网嵌入式开发实训室 物联网实训室 嵌入式开发实训室 物联网应用技术专业实训室 进程控制 ArcTS 登录 ArcUI GridItem 命名管道 客户端与服务端通信 cocoapods protobuf 序列化和反序列化 notepad 安装教程 GPU环境配置 Ubuntu22 Anaconda安装 系统内核 Linux版本 kernel function address 函数 地址 内核 minicom 串口调试工具 网络用户购物行为分析可视化平台 大数据毕业设计 seleium WSL zip unzip edge 健康医疗 STP 生成树协议 PVST RSTP MSTP 防环路 网络基础 unionFS OverlayFS OCI docker架构 写时复制 服务器繁忙 音乐服务器 音流 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 网工 bonding 链路聚合 黑客 计算机 .netcore .net core .net aws Python 视频爬取教程 Python 视频爬取 Python教程 Python 视频教程 客户端-服务器架构 点对点网络 服务协议 网络虚拟化 网络安全防御 anaconda 桌面环境 miniconda yum换源 NVIDIA显卡安装 Ubuntu开机黑屏 TRAE 车载系统 DBeaver 数据仓库 kerberos docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 增强现实 沉浸式体验 技术实现 案例分析 AR 云原生开发 接口优化 k8s二次开发 计算机科学与技术 rdp 远程服务 网络爬虫 Crawlee nohup后台启动 perf 大语言模型 lstm LSTM-SVM 时间序列预测 技术 css3 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 大模型推理 tailscale derp derper 中转 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 IM即时通讯 剪切板对通 HTML FORMAT NFC 近场通讯 智能门锁 python3.11 pyside6 界面 京东云 鸿蒙开发 移动开发 gpt-3 软件商店 信创 livecd systemtools OpenSSH mcp-proxy mcp-inspector fastapi-mcp sse ros2 moveit 机器人运动 宝塔面板无法访问 网卡 显卡驱动持久化 GPU持久化 脚本 autoware lvs issue 局域网 实验 PVE minio 聊天室 gaussdb 剧本 机柜 1U 2U 虚幻 Featurize Mobilenet 分割 LangGraph CLI JavaScript langgraph.json 媒体 centos-root /dev/mapper yum clean all df -h / du -sh 稳定性 看门狗 fstab 电脑桌面出现linux图标 电脑桌面linux图标删除不了 电脑桌面Liunx图标删不掉 linux图标删不掉 Echarts图表 折线图 柱状图 异步动态数据 可视化效果 Ubuntu 22.04 MySql 算力租赁 mac设置host Charles js 环境变量 Android ANDROID_HOME zshrc tftp nfs homebrew windows转mac ssh密匙 Mac配brew环境变量 gstreamer 流媒体 HP打印机 Open WebUI 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 yum源切换 更换国内yum源 监控k8s集群 集群内prometheus ip协议 opengl tar 卸载 软件 列表 gru 超级终端 多任务操作 提高工作效率 切换root Agentic Web NLWeb 自然语言网络 微软build大会 Quixel Fab Unity UE5 游戏商城 虚幻引擎 Docker 部署es9 Docker部署es Docker搭建es9 Elasticsearch9 Docker搭建es armbian u-boot dell服务器 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 react next.js 部署next.js rustdesk 银河麒麟高级服务器 外接硬盘 Kylin 游戏开发 SWAT 配置文件 服务管理 网络共享 网站搭建 serv00 博客 React Next.js 开源框架 aac C 进程地址空间 ubuntu20.04 开机黑屏 linux内核 Ardupilot vsxsrv ArkTS 深度求索 私域 单元测试 测试用例 WSL2 Typore 7z ubuntu安装 linux入门小白 android-studio ajax 数据链路层 #自动化 v10 tcp unity3d Headless Linux nuxt3 Anolis nginx安装 linux插件下载 致远OA OA服务器 服务器磁盘扩容 状态管理的 UDP 服务器 Arduino RTOS asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 outlook llama.cpp 图形化界面 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 Jellyfin saltstack 锁屏不生效 janus cn2 带宽 华为证书 HarmonyOS认证 华为证书考试 resolv.conf 更换镜像源 药品管理 团队开发 #字体 #安装 #微软雅黑 #office SSH 服务 SSH Server OpenSSH Server AI代码编辑器 3GPP 卫星通信 excel PPI String Cytoscape CytoHubba 监控k8s 监控kubernetes mongodb 开放端口 访问列表 Masshunter 质谱采集分析软件 使用教程 科研软件 冯诺依曼体系 Typescript 二级页表 pppoe radius AD域 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 autodl 数据库系统 即时通信 NIO 文件分享 WebDAV 腾讯云 dba 客户端 java-ee AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 massa sui aptos sei 商用密码产品体系 fpga linux cpu负载异常 SRS flink neo4j 数据库开发 database 灵办AI ArtTS c/c++ 串口 docker-compose 进程优先级 调度队列 进程切换 openvpn server openvpn配置教程 centos安装openvpn initramfs Linux内核 Grub 星河版 Ubuntu20.04 2.35 磁盘挂载 新盘添加 partedUtil SystemV charles 鸿蒙面试 面试题 自动化任务管理 x64 SIGSEGV xmm0 rime numpy 宝塔 OpenManus #redis SSL证书 gitea frp 内网服务器 内网代理 内网通信 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 计算虚拟化 弹性裸金属 网络穿透 firefox 录音麦克风权限判断检测 录音功能 录音文件mp3播放 小程序实现录音及播放功能 RecorderManager 解决录音报错播放没声音问题 显示器 日志分析 系统取证 linq sqlite Cache Aside Read/Write Write Behind 材料工程 全文检索 服务发现 DICOM make命令 makefile文件 iftop 网络流量监控 Qwen2.5-coder 离线部署 系统开发 binder framework 源码环境 NVM Node Yarn PM2 IP 地址 ubuntu24.04.1 openstack Xen Hyper-V Linux24.04 路径解析 ue4 着色器 ue5 Node-Red 编程工具 流编程 deekseek intellij idea 私有化 top Linux top top命令详解 top命令重点 top常用参数 Apache Beam 批流统一 案例展示 数据分区 容错机制 powerpoint 转换 写时拷贝 Linux的进程调度队列 活动队列 5090 显卡 AI性能 CAN 多总线 嵌入式实时数据库 模拟器 pnet pnetlab 网络配置 路由配置 xop RTP RTSPServer 推流 视频 spark HistoryServer Spark YARN jobhistory pillow 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 模型联网 CherryStudio 信息收集 直播推流 模拟退火算法 LDAP AD 域管理 浪潮信息 AI服务器 笔灵AI AI工具 gunicorn 大模型训练/推理 推理问题 mindie web localhost lua 过期连接 flinkcdc mcp client mcp server 模型上下文协议 #开发语言 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 edge浏览器 版本 智慧农业 开源鸿蒙 动静态库 brew swift npm orbslam2 ubuntu22.04 RAGflow 管道 pipe函数 匿名管道 管道的大小 匿名管道的四种情况 上架 互联网医院 vr 设置代理 实用教程 nacos Apache OpenNLP 句子检测 分词 词性标注 核心指代解析 authorized_keys 密钥 Spring Boot es MySQL rsyslog pyqt 磁盘监控 api X11 Xming 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 毕昇JDK db 硅基流动 ChatBox es6 qt6.3 g726 实时传输 AudioLM scrapy Hive环境搭建 hive3环境 Hive远程模式 prometheus数据采集 prometheus数据模型 prometheus特点 沙盒 代码 对比 meld Beyond Compare DiffMerge pycharm安装 harmonyosnext illustrator podman 北亚数据恢复 数据恢复 服务器数据恢复 数据库数据恢复 oracle数据恢复 #pytorch VLAN 企业网络 热榜 firewalld RBAC Xinference easyui gromacs 分子动力学模拟 MD 动力学模拟 cnn VGG网络 卷积层 池化层 LVM 磁盘分区 lvresize 磁盘扩容 pvcreate RDP Xshell 裸机装机 linux磁盘分区 裸机安装linux 裸机安装ubuntu 裸机安装kali 裸机 文件共享 企业风控系统 互联网反欺诈 DDoS攻击 SQL注入攻击 恶意软件和病毒攻击 Linux权限 xshell 权限掩码 粘滞位 pandas matplotlib lsof linux命令 #运维 #openssh升级 #银河麒麟V10 SP10 cpu 实时 使用 iis 项目部署到linux服务器 项目部署过程 samba 概率论 串口服务器 万物互联 工业自动化 工厂改造 teamspeak SFTP SFTP服务端 零售 fd 文件描述符 kotlin iphone beautifulsoup 苹果电脑装windows系统 mac安装windows系统 mac装双系统 macbook安装win10双 mac安装win10双系统 苹果电脑上安装双系统 mac air安装win 进程等待 内存泄漏 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 卡死 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 Reactor 显示过滤器 ICMP Wireshark安装 DeepSeek r1 大屏端 图搜索算法 考试 软考 MAVROS 四旋翼无人机 OS NVIDIA 可用性测试 risc-v 量子计算 CKA 数字化转型 去中心化 进程状态 僵尸进程 shell编程 csapp 缓冲区 kylin v10 麒麟 v10 信创终端 中科方德 服务器管理 配置教程 网站管理 solidworks安装 logstash 华为昇腾910b3 finebi 网络接口 时间间隔 所有接口 多网口 显卡驱动 nvidia驱动 Tesla显卡 深度优先 滑动验证码 反爬虫 cs144 接口隔离原则 高考 省份 年份 分数线 数据 log4j #提示词注入 #防护 #安全 #大模型 邮件APP 免费软件 Ubuntu共享文件夹 共享目录 Linux共享文件夹 网络文件系统 pyicu 推荐算法 milvus安装 vm dnf 数码相机 全景相机 设备选择 实用技巧 数字空间 软硬链接 文件 办公自动化 pdf教程 iperf3 带宽测试 mq System V共享内存 进程通信 Helm k8s集群 蓝牙 client-go 百度云 智能体 深度强化学习 深度Q网络 Q_Learning 经验回收 双系统 多系统 Nginx报错413 Request Entity Too Large 的客户端请求体限制 驱动器映射 批量映射 win32wnet模块 网络驱动器映射工具 汇编 sse_starlette Starlette FastAPI Server-Sent Eve 服务器推送事件 直播 TrinityCore 魔兽世界 TCP服务器 qt项目 qt项目实战 qt教程 大数据平台 dns XCC Lenovo 云桌面 AD域控 证书服务器 Web服务器 多线程下载工具 PYTHON gitlab服务器 OSB Oracle中间件 SOA MultiServerMCPC load_mcp_tools load_mcp_prompt ueditor导入word 客户端/服务器架构 分布式应用 三层架构 Web应用 跨平台兼容性 排序算法 uni-popup报错 连接服务器超时 点击屏幕重试 uniapp编译报错 uniapp vue3 imported module TypeError HarmonyOS5 sonoma 自动更新 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 VMware安装mocOS macOS系统安装 本地部署AI大模型 mysql安装报错 windows拒绝安装 chrome历史版本下载 chrominum下载 linux/cmake 调试方法 Valgrind 内存分析工具 离线部署dify 实习 QT 5.12.12 QT开发环境 Ubuntu18.04 DenseNet ros1 Noetic 20.04 apt 安装 2024 2024年上半年 下午真题 答案 WireGuard 异地组网 IO 进程池实现 Jenkins流水线 声明式流水线 分类 dataworks maxcompute #llama #docker #kimi #java #maven #java-ee #spring boot #jvm #kafka #tomcat 流式接口 echarts 信息可视化 网页设计 nextjs reactjs ecm bpm token sas mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 思科模拟器 思科 Cisco Carla YashanDB 崖山数据库 yashandb ECS服务器 漫展 SQI iOS Server Trust Authentication Challenge TCP 多进程 TCP回显服务器 VMware安装Ubuntu Ubuntu安装k8s HiCar CarLife+ CarPlay QT RK3588 大版本升 升级Ubuntu系统 termux 环境搭建 CUPS 打印机 Qt5 csrf Metastore Catalog JAVA uni-app x 进程程序替换 execl函数 execv函数 execvp函数 execvpe函数 putenv函数 vr看房 在线看房系统 房产营销 房产经济 三维空间 更新apt 安装hadoop前的准备工作 空Ability示例项目 讲解 Python基础 Python技巧 pyautogui P2P HDLC docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 自动化编程 RAGFLOW docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 读写锁 Zoertier 内网组网 隐藏目录 管理器 通配符 线程同步 线程互斥 条件变量 漏洞报告生成 BCLinux Linux系统编程 软件安装 冯诺依曼体系结构 BMS 储能 弹性 CPU Invalid Host allowedHosts IIS Hosting Bundle .NET Framework vs2022 oneapi 银河麒麟桌面操作系统 Kylin OS 远程看看 远程协助 BMC 带外管理 asm 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 vu大文件秒传跨域报错cors CNNs 图像分类 socket 证书 签名 大学大模型可视化教学 全球气象可视化 大学气象可视化 JavaWeb 回显服务器 Echo 教程 deepseek r1 ci/cd 用户缓冲区 支付 微信支付 开放平台 Mac内存不够用怎么办 软链接 硬链接 免密 公钥 私钥 OpenCore 权限 powerbi devmem cuda驱动 debezium 数据变更 数据迁移 VUE Mysql openssh sublime text libtorch 金仓数据库 2025 征文 数据库平替用金仓 bat qt5 客户端开发 Isaac Sim 虚拟仿真 webview Reactor反应堆 开发 Makefile Make 客户端和服务器端 pytorch3d #apache #flink c EMQX 通信协议 Ubuntu 24.04.1 轻量级服务器 windows日志 kamailio sip VoIP WebRTC IIS服务器 IIS性能 日志监控 联想开天P90Z装win10 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 netty 飞牛 lighttpd安装 Ubuntu配置 Windows安装 服务器优化 服务器ssl异常解决 规格说明书 设计规范 http状态码 请求协议 ftp 观察者模式 前端项目部署 微前端 HTTP3 全双工通信 多路复用 实时数据传输 黑苹果 中兴光猫 换光猫 网络桥接 自己换光猫 bcompare Linux的基础指令 键盘 ruby Linux find grep 可执行程序 photoshop SPI 源码软件 docker run 数据卷挂载 交互模式 运维监控 compose GRE axure 轮播图 学习路线 LLaMA-Factory NLP python高级编程 Ansible elk stack AOD-PONO-Net 图像去雾技术 MinerU 机器人操作系统 TraeAgent audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 做raid 装系统 Flask Waitress Gunicorn uWSGI freebsd VNC 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? MQTT协议 消息服务器 上传视频文件到服务器 uniApp本地上传视频并预览 uniapp移动端h5网页 uniapp微信小程序上传视频 uniapp app端视频上传 uniapp uview组件库 client close 框架 pxe 科勘海洋 数据采集浮标 浮标数据采集模块 相机标定 jvm调优 LRU策略 内存增长 垃圾回收 MAC 泰山派 根文件系统 Linux的进程控制 编译器 electron 视觉检测 camera Arduino 输入法 Alexnet GeneCards OMIM TTD Linux的进程概念 Playwright MCP 自动化测试框架 飞书 容器化 mysql 8 mysql 8 忘记密码 ocr 孤岛惊魂4 黑客技术 ldap ABAP 智能音箱 智能家居 Webserver 异步 RK3568 PTrade QMT 量化股票 全栈 raid proto actor actor model Actor 模型 加密 #游戏 #云计算 mysql离线安装 mysql8.0 USB转串口 AList webdav fnOS Maven export env 变量 composer STL 编译 烧录 visual studio Ubuntu22.04 美食 根目录 AzureDataStudio LInux qps 高并发 VMware Tools vmware tools安装 vmwaretools安装步骤 vmwaretools安装失败 vmware tool安装步骤 vm tools安装步骤 vm tools安装后不能拖 vmware tools安装步骤 rtc autogen openai VM虚拟机 d3d12 蜂窝网络 频率复用 射频单元 无线协议接口RAN 主同步信号PSS Serverless 内存管理 电子器件 二极管 三极管 青少年编程 编程与数学 c盘 磁盘清理 gin #python #信息可视化 #大数据 #python #毕业设计 #Hadoop #SPark #数据挖掘 UDP的API使用 DeepSeek-R1 API接口 银河麒麟操作系统 swoole uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 半虚拟化 硬件虚拟化 Hypervisor OD机试真题 华为OD机试真题 服务器能耗统计 音乐库 联机 僵尸毁灭工程 游戏联机 开服 工厂方法模式 电子信息工程 Lenovo System X GNOME Scoket 套接字 blender three.js 数字孪生 英语六级 笔记本电脑 conda配置 conda镜像源 英语 csrutil mac恢复模式进入方法 恢复模式 设备树 firewall tar.gz tar.xz linux压缩 direct12 Mac部署 Ollama模型 Openwebui 配置教程 AI模型 PATH 命令行参数 main的三个参数 react Native #华为 #harmonyos #手机 蓝耘科技 元生代平台工作流 ComfyUI springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 lio-sam SLAM 论文阅读 virtualbox 输入系统 4 - 分布式通信、分布式张量 软路由 Arduino下载开发板 esp32开发板 esp32-s3 开启关闭防火墙 WebFuture 重构 zotero 同步失败 vscode1.86 1.86版本 ssh远程连接 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 DeepSeek行业应用 Heroku 网站部署 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 gateway Clion Nova ResharperC++引擎 Centos7 远程开发 端口测试 跨域请求 免费 mvc 零日漏洞 CVE 决策树 医药 医疗APP开发 app开发 检索增强生成 文档解析 大模型垂直应用 Ubuntu Server Ubuntu 22.04.5 Linux PID GKI KMI 机床 仿真 课件 虚拟现实 教学 课程 实战项目 入门 精通 MAC地址 #tomcat #架构 #servlet ssh远程登录 ceph 免费域名 域名解析 命令模式 web环境 本地知识库 思科实验 高级网络互联 链表 #python3.11 服务器时间 live555 源码剖析 rtsp实现步骤 流媒体开发 wsgiref Web 服务器网关接口 LORA 阿里云ECS 配置原理 内网渗透 靶机渗透 pyscenic 生信教程 Redis Desktop 移动端开发 grep CTE AGE bpf bpfjit pcap #数据库 IMX317 MIPI H265 VCU AnythingLLM AnythingLLM安装 linux安装配置 目标跟踪 OpenVINO 推理应用 Doris搭建 docker搭建Doris Doris搭建过程 linux搭建Doris Doris搭建详细步骤 Doris部署 K8S k8s管理系统 桥接模式 windows虚拟机 虚拟机联网 电脑操作 wpf dsp开发 文件权限 muduo库 打包工具 #YOLO #目标检测 #YOLOv13 vasp安装 laravel 银河麒麟服务器操作系统 系统激活 file server http server web server 镜像下载 DELL R730XD维修 全国服务器故障维修 多媒体 服务器租用 物理机 小游戏 五子棋 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 IP配置 netplan 热键 linux常用命令 wget uboot 部署方案 IMX6ULL #apache GoogLeNet Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 Sealos 大模型技术 本地部署大模型 图片增强 增强数据 服务注册与发现 DrissionPage 服务 SSM 项目实战 页面放行 dnn rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 智能电视 动态规划 机架式服务器 1U工控机 国产工控机 cocos2d 3dcoat 教育电商 GPU状态 网络带宽 问题排查 网络IO 队列 数据库占用空间 华为OD机考 机考真题 需要广播的服务器数量 多端开发 智慧分发 应用生态 鸿蒙OS 嵌入式系统开发 开发人员主页 shell脚本免交互 expect linux免交互 一切皆文件 数据库管理 mac cocoapods macos cocoapods iptables 聚类 rancher post.io 企业邮箱 搭建邮箱 SoC 原子操作 AXI 迭代器模式 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 VPS java-rocketmq 温湿度数据上传到服务器 Arduino HTTP 充电桩 欧标 OCPP java-zookeeper openvino SPP 信号 win向maOS迁移数据 苹果 I/O 设备管理 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 copilot 国产数据库 瀚高数据库 下载安装 import save load 迁移镜像 netlink libnl3 finalsheel llamafactory 微调 Qwen 本地环回 bind xfce time时间函数 #bright data 磁盘满 网卡的名称修改 eth0 ens33 ping++ junit googlecloud DOIT 四博智联 主板 电源 C# MQTTS 双向认证 emqx nosql deepseek-r1 大模型本地部署 deepseak 豆包 KIMI 腾讯元宝 金仓数据库概述 金仓数据库的产品优化提案 文件存储服务器组件 匿名FTP 邮件传输代理 SSL支持 chroot监狱技术 进度条 序列化反序列化 keepalived 权限命令 特殊权限 图文教程 VMware虚拟机 macOS系统安装教程 macOS最新版 虚拟机安装macOS Sequoia octomap_server 容器清理 大文件清理 空间清理 单用户模式 进程创建 进程退出 端口 curl 问题解决 WebVM 自学笔记 小米 澎湃OS 电视剧收视率分析与可视化平台 富文本编辑器 scapy su sudo sudo原理 su切换 集成 PCB fork 进程管理 vb #adb #数据库开发 #mysql #sql 个人博客 ssrf 失效的访问控制 hibernate W5500 OLED u8g2 EtherCAT转Modbus EtherCAT转485网关 ECT转485串口服务器 ECT转Modbus485协议 ECT转Modbus串口网关 ECT转Modbus串口服务器 软件开发 Putty 花生壳 建站 磁盘IO iostat 快速入门 VR手套 数据手套 动捕手套 动捕数据手套 分析解读 cmos 代理服务器 用户管理 高德地图 鸿蒙接入高德地图 HarmonyOS5.0 sublime text3 导航栏 PostgreSQL15数据库 elementui 若依框架 #数据结构 #c++ #链表 #笔记 抗锯齿 telnet 远程登录 redhat 能效分析 图论 coze扣子 AI口播视频 飞影数字人 coze实战 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 聊天服务器 Socket asp.net大文件上传下载 hugo ardunio BLE 小智AI服务端 xiaozhi TTS 网络原理 三次握手 宠物 免费学习 宠物领养 宠物平台 支持向量机 vCenter服务器 ESXi主机 监控与管理 故障排除 日志记录 web开发 惠普服务器 惠普ML310e Gen8 惠普ML310e Gen8V2 鼠标 基础入门 基础环境 Cookie diskgenius systemctl Python学习 Python编程 Unlocker 影刀 #影刀RPA# deployment daemonset statefulset cronjob nano proxy_pass 2025一带一路金砖国家 金砖国家技能大赛 技能发展与技术创新大赛 首届网络系统虚拟化管理与运维 比赛样题 阻塞队列 生产者消费者模型 服务器崩坏原因 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 服务器主板 AI芯片 skynet Qualcomm WoS QNN AppBuilder 网站 券商 股票交易接口api 类型 特点 股票量化接口 股票API接口 腾讯云服务器 轻量应用服务器 linux系统入门 asp.net messages dmesg EMUI 回退 降级 jdk11安装 jdk安装 openjdk11 openjdk11安装 分布式总线 杂质 leetcode 原创作者 vscode-server ubuntu18.04 CentOS 流水线 脚本式流水线 飞牛nas fnos 钉钉 工具分享 源代码 ROS1/ROS2 dockerfile Wayland 麒麟kos 网络检测 ping TiDB测试集群 UDP 游戏机 移动云 vSphere vCenter DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 创意 社区 VMware创建虚拟机 代码托管服务 Web应用服务器 弹性服务器 bootstrap RustDesk 搭建服务器 粘包问题 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 高级IO epoll TCP协议 ubuntu24 vivado24 efficientVIT YOLOv8替换主干网络 TOLOv8 烟花代码 烟花 元旦 并查集 NLP模型 IPv6测试 IPv6测速 IPv6检测 IPv6查询 linux子系统 忘记密码 registries 搜狗输入法 中文输入法 回归 #n8n #n8n工作流 #n8n教程 #n8n本地部署 #n8n自动化工作流 #n8n使用教程 #n8n工作流实战案例 code-server Spring Security 大文件秒传跨域报错cors 备选 调用 示例 banner 服务器部署 本地拉取打包 slave bug定位 缺陷管理 材质 贴图 支付宝小程序 云开发 trea idea wait waitpid exit lvm MDK 嵌入式开发工具 Maxkb RAG技术 cpolar ebpf 体验鸿蒙电脑操作系统 Windows电脑能装鸿蒙吗 Linux环境 多路转接 SSH 密钥生成 SSH 公钥 私钥 生成 k8s集群资源管理 软负载 高可用 HBase分布式集群 HBase环境搭建 HBase安装 HBase完全分布式环境 network NetworkManager 人工智能作画 openGauss #大数据 SVN Server tortoise svn 同步 备份 MNN 显示管理器 lightdm gdm Erlang OTP gen_server 热代码交换 事务语义 算力 能力提升 面试宝典 IT信息化 干货分享 黑客工具 密码爆破 西门子PLC 通讯 数字证书 签署证书 大厂程序员 硅基计算 碳基计算 认知计算 生物计算 AGI 系统架构设计 软件哲学 程序员实现财富自由 站群服务器 MQTT Broker GMQT 访问公司内网 服务网格 istio uv Linux的权限 Linux的基础开发工具 GRANT REVOKE java毕业设计 微信小程序医院预约挂号 医院预约 医院预约挂号 小程序挂号 C/C++ 桶装水小程序 在线下单送水小程序源码 桶装水送货上门小程序 送水小程序 订水线上商城 程序地址空间 云盘 安全组 #VMware #虚拟机 产测工具框架 管理框架 浏览器开发 AI浏览器 实战案例 GRUB引导 Linux技巧 lb 协议 Docker快速入门 anythingllm open-webui docker国内镜像 BitTorrent 搜索 简单工厂模式 huggingface pavucontrol 蓝牙耳机 pi0 lerobot aloha act ipv6 光猫设置 路由器设置 #stm32 #单片机 #freeRTOS 并集查找 换根法 树上倍增 iDRAC R720xd Dedicated Host Client 无头主机 IDEA VS Code 像素流送api 像素流送UE4 像素流送卡顿 像素流送并发支持 蓝桥杯C++组 华为OD 可以组成网络的服务器 ueditor导入pdf ueditor导入ppt 环境 非root 光电器件 LED js逆向 alphafold3 #vscode #编辑器 #ide termius iterm2 Tabs组件 TabContent TabBar TabsController 导航页签栏 滚动导航栏 AppLinking 应用间跳转 时序数据库 iotdb jina cd 目录切换 通用环境搭建 WIFI7 无线射频 高通 射频校准 射频调试 射频匹配 #经验分享 #kubernetes #数据结构 NAT转发 NAT Server WinRM TrustedHosts XFS xfs文件系统损坏 I_O error 错误代码2603 无网络连接 2603 行情服务器 股票交易 速度慢 切换 AWS qwen2vl MateBook 雾锁王国 算法协商 故障排查 Web测试 pve Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 软件卸载 系统清理 vpn DIFY Bandizip Mac解压 Mac压缩 压缩菜单 影视app 文件清理 线程安全 webgis cesium 应急响应 CTF EulerOS 版本对应 Linux 发行版 企业级操作系统 RHEL 开源社区 南向开发 北向开发 AI Agent 字节智能运维 MinIO 手机 openresty rtsp转rtmp 海康rtsp转rtmp 摄像头rtsp到rtmp rtsp转发 rtsp摄像头转rtmp rtsp2rtmp #debian #爬虫 #php Radius webstorm opcua opcda KEPServer安装 RTMP 应用层 AI agent MI300x 雨云服务器 流量运营 加解密 Yakit yaklang 繁忙 解决办法 替代网站 汇总推荐 AI推理 gradle caddy 事件驱动 自定义登录信息展示 motd 美化登录 MCP 服务器 JADX-AI 插件 视频服务器 软件高CPU占用 ProcessExplorer Process Hacker System Informer Windbg 线程的函数调用堆栈 #ai #AI编程 小艺 Pura X HarmonyOS NEXT 原生鸿蒙 多产物 子系统 wifi驱动 CodeBuddy首席试玩官 系统完整性 越狱设备 Termius Vultr 远程服务器 #DevEco Studio #HarmonyOS Next #mobaxterm #termius #electerm #tabby #termcc 子网掩码 公网IP 私有IP 容器技术 nacos容器环境变量 docker启动nacos参数 nacos镜像下载 NAT #openssh rtp 多个客户端访问 IO多路复用 TCP相关API ECT转Modbus协议 EtherCAT转485协议 ECT转Modbus网关 WebServer oracle fusion oracle中间件 zerotier c/s 实时云渲染 云渲染 3D推流 rtmp eventfd 高性能 国产芯片 #阿里云 #合成孔径雷达 #GAMMA #InSAR 捆绑 链接 谷歌浏览器 youtube google gmail 微信分享 Image wxopensdk 多层架构 解耦 safari 查看显卡进程 fuser macOS 空间 查错 互联网实用编程指南 ps命令 时间轮 Navigation 路由跳转 鸿蒙官方推荐方式 鸿蒙原生开发 路径规划 CKEditor5 HDC2025 HarmonyOS 6 CAN总线 WebUI DeepSeek V3 CLion 机械臂 Web3 Telegram fabric ICMPv6 docker安装mysql win下载mysql镜像 mysql基本操作 docker登陆私仓 docker容器 deepseek与mysql AI控制浏览器 Browser user #chrome asi_bench 需求分析 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 负载测试 矩池云 数据下载 数据传输 access blocked 破解 anonymous 独立服务器 Windows 11 重装电脑系统 Java 日志框架 Log4j2 Logback SLF4J 结构化日志 企业级应用 BIO Java socket Java BIO Java NIO Java 网络编程 集群 视频直播物理服务器租用 物理服务器 物理机租用 tengine web负载均衡 WAF #AI #MCP alias unalias 别名 MacOS录屏软件 跨平台 分布式锁 nmcli MVVM 鸿蒙5.0 备忘录应用 ai编程 #技能认证 #分区 #nacos k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm selete 解决方案 solr 知行EDI 电子数据交换 知行之桥 EDI 红黑树封装map和set 恒玄BES Cilium dockercompose安装 compose.yml文件详解 dockercompose使用 mcp-server requests python库 机床主轴 热误差补偿 风电齿轮箱 故障诊断 物理-数据融合 预测性维护 #udp #网络通信 #网络协议 #Socket #计算机网络 #tcp/ip #database #macos win11 无法解析服务器的名称或地址 根服务器 SSL 域名 SEO 社交电子 服务器部署ai模型 KingBase clickhouse sqlite3 互信 浏览器自动化 VPN wireguard AimRT accept ESP8266简单API服务器 Arduino JSON cordova 跨域开发 科研绘图 生信服务器 webgl 元服务 应用上架 regedit 开机启动 Attention CentOS Stream fonts-noto-cjk 终端 底层实现 Linux指令 Windows应急响应 webshell 网络攻击防御 网络攻击 学习笔记 CUDA Toolkit 对话框showDialog showActionMenu 操作列表ActionSheet CustomDialog 文本滑动选择器弹窗 消息提示框 警告弹窗 FreeLearning 嵌入式软件 RTOS PDF 图片 表格 文档扫描 发票扫描 IO模型 docker部署Python 李心怡 dock 加速 达梦 DM8 静态IP containerd 触觉传感器 GelSight GelSightMini GelSight触觉传感器 物理层 进程操作 理解进程 #mcp #浏览器自动化 #电脑上不了网 #IP设置 #网卡驱动 #路由器设置 #wifi设置 #网络防火墙 #无法连接到这个网络 软件定义数据中心 sddc 直流充电桩 IPMITOOL 硬件管理 技术共享 工业4.0 域名服务 DHCP 符号链接 配置 OpenManage vue在线预览excel和编辑 vue2打开解析xls电子表格 浏览器新开页签或弹框内加载预览 文件url地址或接口二进制文档 解决网页打不开白屏报错问题 aiohttp asyncio zipkin funasr asr 语音转文字 cangjie webserver proteus springcloud 模拟实现 历史版本 下载 retry 重试机制 玩游戏 提示词 ubantu tvm安装 深度学习编译器 云解析 云CDN SLS日志服务 云监控 HarmonyOS 5开发环境 CMake 自动化编译工具 系统升级 16.04 #http #OCCT #Qt #ansible #role #galaxy #ansible-galaxy linux上传下载 etl docker命令大全 代理 CAD瓦片化 栅格瓦片 矢量瓦片 Web可视化 DWG解析 金字塔模型 影刀证书 分享 改行学it #安全 #nginx #web安全 #端口 宕机切换 服务器宕机 架构与原理 超融合 云耀服务器 代码规范 #STC8 #STM32 Qt QModbus 流量 AI导航站 udp回显服务器 哥sika 开闭原则 KingbaseES #飞算Java炫技赛 #Java开发 魔百盒刷机 移动魔百盒 机顶盒ROM 玩机技巧 软件分享 软件图标 Ark-TS语言 ollama下载加速 qtcreator 顽固图标 启动台 端口开放 Bluetooth 配对 本地不受DeepSeek 命令键 Eigen vmvare infini-synapse #rockylinux #rhel #操作系统 #系统安装 #conda #kali 查看 ss 端口聚合 windows11 网易邮箱大师 mapreduce 定义 核心特点 优缺点 适用场景 数字比特流 模拟信号 将二进制数据映射到模拟波形上 频谱资源 振幅频率相位 载波高频正弦波 5分钟快速学 docker入门 代理配置 企业级DevOps rxjava docker search docker 失效 docker pull失效 docker search超时 BiSheng Jenkins 配置凭证 线程同步与互斥 Wi-Fi 查询数据库服务IP地址 SQL Server jetty undertow 田俊楠 win服务器架设 windows server 联网 easyconnect RNG 状态 可复现性 随机数生成 机器人仿真 模拟仿真 EF Core 客户端与服务器评估 查询优化 数据传输对象 查询对象模式 labview gpu 泛微OA ubuntu 18.04 Office nginx默认共享目录 clipboard 剪贴板 剪贴板增强 Windows Hello 摄像头 指纹 生物识别 C++11 lambda 包装类 coffeescript HarmonyOS SDK Map Kit 地图 恢复 黑马 苍穹外卖 mysql8.4.5 Win10修改MAC #comfyui 交叉编译 WLAN Trae叒更新了? hosts hosts文件管理工具 gerrit 电子学会 usb typec FCN 扩展错误 #飞书 HAProxy h.264 相差8小时 UTC 时间 Nuxt.js 执法记录仪 智能安全帽 smarteye chfs ubuntu 16.04 矩阵 服务器正确解析请求体 安防软件 WINCC 充电桩平台 充电桩开源平台 风扇散热策略 曙光 海光 宁畅 中科可控 事件分析 边缘服务器 利旧 AI识别 Modbustcp服务器 SpringBoot av1 电视盒子 navicat 合成模型 扩散模型 图像生成 threejs 3D macbook 接口返回 Github加速 Mac上Github加速 Chrome浏览器插件 亲测 redisson Bilibili B站 skywalking figma 语法 scikit-learn 生活 UFW sql注入 VAD 视频异常检测 VAR 视频异常推理 推理数据集 强化微调 GRPO myeclipse 系统架构设计师 线性代数 #神经网络 #自然语言处理 #语言模型 #目标跟踪 网络犯罪 人工智能 内网环境 sysctl.conf vm.nr_hugepages ux SysBench 基准测试 迁移指南 海康 shard jQuery FreeRTOS 报警主机 豪恩 VISTA120 乐可利 霍尼韦尔 枫叶 时刻 openlayers bmap tile server #默认分类 #其他 Ubuntu 24.04 搜狗输入法闪屏 Ubuntu中文输入法 自定义shell当中管道的实现 匿名和命名管道 android-ndk English RHCE nvm安装 MobileNetV3 最新微服务 Searxng 工作流自动化 AI智能体 scala #redis #缓存 #web安全 #网络安全 #渗透测试 #计算机 #转行 #职场发展 #干货分享 #gpt #chatgpt 佛山戴尔服务器维修 佛山三水服务器维修 URL xss Unity插件 搭建个人相关服务器 授时服务 北斗授时 Async注解 动态域名 云服务器租用 CSDN开发云 参数服务器 分布式计算 数据并行 java18 #c# #OPCUA 极限编程 Mac软件 红黑树 智能手表 Pura80 WATCH 5 安全整改 黑屏 FreeFileSync 定时备份 #WSL #电脑 #经验分享 #信息可视化 #qml #qt linux 命令 sed 命令 idm 医院门诊管理系统 仓库 共享 设置 分布式数据库 集中式数据库 业务需求 选型误 微信自动化工具 微信消息定时发送 手动分区 概率与统计 随机化 位运算 几何计算 数论 视频会议 #iotdb #时序数据库 #云原生 #阿里云 压测 业界资讯 rtcp 站群 多IP 静态NAT OpenAI siteground siteground安装wp 一键安装wordpress 服务器安装wordpress 转流 rtsp取流 rtmp推流 EasyTier Bluedroid 强制清理 强制删除 mac废纸篓 whistle bert 九天画芯 铁电液晶 显示技术 液晶产业 技术超越 视频号 vsode GDB调试 Ubuntu环境 四层二叉树 断点设置 #矫平机 #校平机 #铁 #钢 #前端 xpath定位元素 proxy模式 uprobe isaacgym 中文分词 NGINX POD #图像处理 #数据库 #nginx #性能优化 #科技 电商平台 cpp-httplib sentinel hexo 火山引擎 开启黑屏 协作 FS100P 小亦平台 运维问题解决方法 gaussdb问题解决 #aws #搜索引擎 #elasticsearch #全文检索 激光雷达 镭眸 mac完美终端 #macos26 #启动台 项目部署 ELF加载 broadcom PP-OCRv5 ubuntu20.04 OCR #时序数据库 #iotdb #重构 #excel #PG处理POI分类数据 #Java处理POI分类数据 #ApachePOI数据处理 #高德POI分类数据存储 #POI数据分类存储 #部署配置docker #容器化 #kubernetes #网络协议 #ip vscode 1.86 AISphereButler TrueLicense 制造 虚拟主机 物理机服务器 食用文档 物理服务器租用 汽车 arkts arkui 效率 ohmyzsh #小程序 #Dify 集群管理 pow 指数函数 优化 N8N OpenTiny 实时语音识别 流式语音识别 vue2 恒源云 高效I/O 能源 tty2 #哈希算法 #散列表 IT 护眼模式 #Linux #Ubuntu #ubuntu24 #ubuntu2404 #ubuntu安装 #sudo #vue.js 智能问答 Milvus UDS Bootloader 敏捷开发 模板 泛型编程 选择排序 地平线5 机架式 IDC pikachu靶场 XSS漏洞 XSS DOM型XSS 统信uos dos 批处理 日期 #面试 #职场和发展 mujoco 重置密码 #shell #脚本 路由器 #sql #学习 #自动化测试 #软件测试 Modbus TCP 集合 List #架构 #分布式 #单机架构 #微服务 #vue.js #机器人 低成本 连接失败 Mosquitto 实时日志 logs NTP服务器 #华为云 #云服务部署 #搭建AI #Flexus X实例 watchtower homeassistant 基本指令 #物联网 #算法 #洛谷 #强连通分量 #缩点 lrzsz authing #后端 cp 进度显示 #计算机网络 #网络攻击模型 #tensorflow #pip 几何绘图 三角函数 #嵌入式硬件 服务器托管 云托管 数据中心 idc机房 mobaxterm #统信uos 风扇控制软件 #端口占用 #系统详情 #驱动 #嵌入式 责任链模式 信奥 SonarQube #HTML #核心知识点 #web #知识点 #网页开发 #postgresql #系统架构 #inlong #pycharm #c语言 #程序人生 #mc #服务器搭建 #mc服务器搭建 #mc服务器 #笔记 #intellij-idea #idea #intellij idea #数据库架构 #安全架构 #美食 #django #flask #node.js #RAG #jdk #编程 #jvm fast #毕设 #租房管理系统 #论文 #虚拟地址 #虚拟地址空间 #写时拷贝 A2A #unity #着色器 #需求分析 #区块链 #数据分析 #iot #图论 #深度优先 WinCC OT与IT SCADA 智能制造 MES guava #echarts #https #系统架构 #golang #jenkins #音视频 #AIGC #开源 #测评 #CCE #Dify-LLM #Flexus #VNC #spring boot #截图工具 #Linux的基础IO #智能路由器 #NAT #信息与通信 #进程状态 #僵尸进程 #孤儿进程 #挂起 #nginx配置 #nginx案例 #nginx详解 #eureka #rocketmq #零拷贝 #Agent #智能运维 #AI开发平台 #AI工具链 #AI编程 #低代码 细胞分割 计数自动化 图像分析 #Ollama #agent #向量库 #fastAPI #langchain #tcp/ip Excel转json Excel转换json Excel累加转json python办公 dfs #进程优先级 #进程切换 #Linux调度算法 #寄存器 #node.js #物联网 #进程 #fork #深信服运维安全管理系统 #远程命令执行漏洞 #GESP C++ #C++程序竞赛 #信奥赛 #MCP协议 #typescript #实战指南 #MCP服务器 #gitlab #github #腾讯云 #Linux的进程间通信 #CMake #Debian #CentOS #RBAC桎梏 #角色爆炸 #静态僵化 #授权对象体系 #组织维度 #业务维度 #深度学习 #概率论 #微信小程序 #配置教程 #入门教程 #安装教程 #图文教程 #Cookie #Session #HTTP #神经网络 #实时流处理 #设备故障预测 #Flink #DeepSeek #蓝耘智算 #硬盘读取 #硬盘读取失败 #MAC电脑读取硬盘 #LoTDB #开源 #AI写作 #struts #github #leetcode #beego #go1.19 #beautifulsoup #Apache IoTDB #android #缓冲区 #Linux #raid #raid阵列 #VMware #VMWare Tool #elasticsearch #Linux的进程信号 #list #stl #react.js #javascript #React 编译器 #自动优化 #记忆化技术 #重新渲染优化 #使用教程 #unix #intellij-idea #内网穿透 #矩阵 #ruby #哈希表 #gitee #权限