• 银河麒麟服务器操作系统部署Hadoop集群

银河麒麟服务器操作系统部署Hadoop集群

2025-05-01 04:57:07 58 阅读

银河麒麟服务器操作系统部署Hadoop集群

一、 Hadoop集群环境规则

1.Hadoop介绍

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。
充分利用集群的威力进行高速运算和存储。

2.Hadoop集群简介

HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起。
HDFS集群负责海量数据的存储,集群中的角色主要有:NameNode、DataNode、SecondaryNameNode
YARN集群负责海量数据运算时的资源调度,集群中的角色主要有:ResourceManager、NodeManager
那mapreduce是什么呢?它其实是一个分布式运算编程框架,是应用程序开发包,由用户按照编程规范进行程序开发,后打包运行在
HDFS集群上,并且受到YARN集群的资源调度管理。

3.Hadoop核心组件有:

HDFS(分布式文件系统):解决海量数据存储
YARN(作业调度和集群资源管理的框架):解决资源任务调度
MAPREDUCE(分布式运算编程框架):解决海量数据计算

4.节点规划说明:
zookeeper集群需要至少3个节点,并且节点数为奇数个,可以部署在任意独立节点上,NameNode及ResourceManager依赖zookeeper
进行主备选举和切换

NameNode至少需要2个节点,一主多备,可以部署在任意独立节点上,用于管理HDFS的名称空间和数据块映射,
依赖zookeeper和zkfc实现高可用和自动故障转移,并且依赖journalnode实现状态同步

ZKFailoverController即zkfc,在所有NameNode节点上启动,用于监视和管理NameNode状态,参与故障转移

DataNode至少需要3个节点,因为hdfs默认副本数为3,可以部署在任意独立节点上,用于实际数据存储

ResourceManager:至少需要2个节点,一主多备,可以部署在任意独立节点上,依赖zookeeper实现高可用和自动故障转移,
用于资源分配和调度

NodeManager部署在所有DataNode节点上,用于节点资源管理和监控

journalnode至少需要3个节点,并且节点数为奇数个,可以部署在任意独立节点上,用于主备NameNode状态信息同步

5.服务器角色

| 主机名            | IP地址        | 组件           |          |          |            |                 |                     |             |
|----------------|-------------|----------|----------|----------|------------|-----------------|---------------------|-------------|
| idc-bigdata-01 | 10.62.1.181 | zookeeper| NodeNode | DataNode | NodeManage | ResourceManager | ZKFailoverControlle | Journalnode |
| idc-bigdata-02 | 10.62.1.182 | zookeeper| NodeNode | DataNode | NodeManage | ResourceManager | ZKFailoverControlle | Journalnode |
| idc-bigdata-03 | 10.62.1.183 | zookeeper| NodeNode | DataNode | NodeManage | ResourceManager | ZKFailoverControlle | Journalnode |
| idc-bigdata-04 | 10.62.1.184 | zookeeper| NodeNode | DataNode | NodeManage | ResourceManager | ZKFailoverControlle | Journalnode |
| idc-bigdata-05 | 10.62.1.185 | zookeeper| NodeNode | DataNode | NodeManage | ResourceManager | ZKFailoverControlle | Journalnode |

二、系统初始化

所有环境使用hadoop用户来安装

2. 环境初始化
2.1 查看内核
# uname -r
4.19.90-24.4.v2101.ky10.x86_64   
默认内核为4.19
2.2 创建用户名
创建 用户 
useradd hadoop
echo WLwl@2023|passwd --stdin hadoop 


visudo  # 可选
添加 
hadoop ALL=(ALL)       NOPASSWD: ALL      

切换方法  su -  hadoop

2.3配置主机名

hostnamectl set-hostname idc-bigdata-01 && hostname idc-bigdata-01 && hostname -f
hostnamectl set-hostname idc-bigdata-02 && hostname idc-bigdata-02 && hostname -f
hostnamectl set-hostname idc-bigdata-03 && hostname idc-bigdata-03 && hostname -f
hostnamectl set-hostname idc-bigdata-04 && hostname idc-bigdata-04 && hostname -f
hostnamectl set-hostname idc-bigdata-05 && hostname idc-bigdata-05 && hostname -f
2.4 配置主机名显示

为每个机器单独配置主机名,历史记录显示

cat > /etc/profile.d/sys.sh<
2.5 配置主机名解析

# 集群所有主机

cat >/etc/hosts <
2.6 关闭防火墙和selinux

# 集群所有主机
systemctl disable --now firewalld && systemctl stop firewalld
sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config && setenforce 0

2.7 配置时间同步

添加定时任务

如果没有时间服务器需要自己安装,并指向时间服务器,集群时间不同步会导致集群节点宕机

yum install -y ntp  所有节点

ntp服务器

cat > /etc/ntp.conf << EOF

# 日志配置
logfile /var/log/ntpd.log

# 配置时间服务器(阿里云)
driftfile /var/lib/ntp/drift
restrict default nomodify notrap nopeer noquery
restrict 127.0.0.1 
restrict -6 ::1

server ntp1.aliyun.com
server ntp2.aliyun.com

#外部时间服务器不可用时,以本地时间作为时间服务
server 127.127.1.0
fudge 127.127.1.0 stratum 10

includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys
EOF

客户端

cat > /etc/ntp.conf << EOF
driftfile /var/lib/ntp/drift
restrict default nomodify notrap nopeer noquery
restrict 127.0.0.1 
restrict -6 ::1

server 10.61.1.189

includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys
EOF

systemctl restart ntpd && systemctl enable ntpd

可选  默认时区Asia/Shanghai
timedatectl
timedatectl set-timezone "Asia/Shanghai"
timedatectl set-ntp true

ntpq -p

客户端配置

echo "*/30 * * * * /usr/sbin/ntpdate -u 10.62.1.191 >/dev/null 2>&1" > /var/spool/cron/root
crontab -l

2.8 关闭swap
每台机器设置交换空间
建议将交换空间设置为0,过多的交换空间会引起GC耗时的激增
echo "vm.swappiness = 0" >> /etc/sysctl.conf && sysctl -p
sed -i '/swap/s/^(.*)$/#/g' /etc/fstab

2.9 关闭大页面压缩
echo never > /sys/kernel/mm/transparent_hugepage/enabled
echo never > /sys/kernel/mm/transparent_hugepage/defrag
echo 'echo never > /sys/kernel/mm/transparent_hugepage/defrag' >> /etc/rc.d/rc.local
echo 'echo never > /sys/kernel/mm/transparent_hugepage/enabled' >> /etc/rc.d/rc.local
chmod +x /etc/rc.d/rc.local

2.10 关闭sshd DNS配置
可选
sed -i 's/#UseDNS yes/UseDNS no/g'   /etc/ssh/sshd_config
systemctl restart sshd

设置 StrictHostKeyChecking 为no

sed -i  's/^#   StrictHostKeyChecking ask/StrictHostKeyChecking no/g' /etc/ssh/ssh_config
grep -w StrictHostKeyChecking /etc/ssh/ssh_config
2.11 优化句柄 打开文件数

sed -i '/^*/d' /etc/security/limits.conf
cat >>/etc/security/limits.conf <
2.12 优化内核参数

cat >/etc/sysctl.d/kernel.conf <
2.13 配置ssh免密

所有NameNode节点需要对DataNode节点免密,用于NameNode管理DataNode进程,
所有NameNode节点之间也需要相互免密,用于故障切换。


3个节点生成公钥和私钥,3个节点上分别执行
切换用户,生成密钥对


su - hadoop   
ssh-keygen -t rsa -m PEM

一直按回车,都设置为默认值,然后再当前用户的Home目录下的.ssh目录中会生成公钥文件(id_rsa.pub)和私钥文件(id_rsa)

注意:
ssh-keygen -t rsa 直接生产出来的格式是OPENSSH,后面HDFS无法实现高可用自动切换。,所以,需要加上 -m PEM
错误记录,详见 Hadoop 之 高可用不自动切换(ssh密钥无效 Caused by: com.jcraft.jsch.JSchException: invalid privatekey )
  
分发脚本  每台主机上都执行
for i in idc-bigdata-{01..05};do  ssh-copy-id $i -o StrictHostKeyChecking=no  ;done

另外两台机器执行同样操作,生成公钥和私钥后,分发给是三台机器

验证
for host in idc-bigdata-{01..05}
do
echo ======print hostname=======
ssh $host hostname
echo ======print ip addr =========
ssh $host ip a|awk -F "[ /]+" '/inet/ && /brd/{print $3}'
echo 
done

2.14 配置ssh免密其它方法

su - hadoop
ssh-keygen -t rsa -m PEM    生成RSA 类型

5个节点对idc-bigdata-01节点免密,5个节点上分别执行

ssh-copy-id idc-bigdata-01

idc-bigdata-01节点执行,分发authorized_keys文件到其他节点

scp /root/.ssh/authorized_keys idc-bigdata-02:/root/.ssh/authorized_keys
scp /root/.ssh/authorized_keys idc-bigdata-02:/root/.ssh/authorized_keys

idc-bigdata-01节点执行,所有节点公钥写入known_hosts
ssh-keyscan -t ecdsa idc-bigdata-01 idc-bigdata-02 idc-bigdata-03 > /root/.ssh/known_hosts

idc-bigdata-01节点执行,分发known_hosts文件到其他节点

scp /root/.ssh/known_hosts idc-bigdata-02:/root/.ssh/
scp /root/.ssh/known_hosts idc-bigdata-03:/root/.ssh/

验证免密成功,任意namenode节点ssh到其他节点能够免密登录
ssh idc-bigdata-01
ssh idc-bigdata-02
ssh idc-bigdata-03

2.15 安装java环境

所有节点安装java,因为zookeeper及hadoop依赖java环境。

如果使用open-jdk 这里可以不需要安装

手动安装步骤


卸载open-jdk

如果已安装open-jdk ,需要卸载open-jdk

rpm -qa|grep java
[root@idc-bigdata-03 ~]# rpm -qa|grep java
javapackages-tools-5.3.0-2.ky10.noarch
javapackages-filesystem-5.3.0-2.ky10.noarch
java-11-openjdk-headless-11.0.9.11-4.ky10.x86_64
java-1.8.0-openjdk-headless-1.8.0.272.b10-7.ky10.x86_64
java-1.8.0-openjdk-1.8.0.272.b10-7.ky10.x86_64
tzdata-java-2020a-8.p01.ky10.noarch
java-11-openjdk-11.0.9.11-4.ky10.x86_64

yum remove java-openjdk -y
[root@idc-bigdata-01 conf]# rpm -e --nodeps java-1.8.0-openjdk-headless-1.8.0.342.b07-0.p01.ky10.x86_64 java-11-openjdk-headless-11.0.9.11-4.ky10.x86_64 tzdata-java-2020a-8.p01.ky10.noarch

[root@idc-bigdata-01 conf]# rpm -qa|grep java
javapackages-tools-5.3.0-2.ky10.noarch
javapackages-filesystem-5.3.0-2.ky10.noarch



或
rpm -qa|grep java|xargs -i rpm -e --nodeps {}






安装jdk

下载jdk 忽略
上传jdk-8u181-linux-x64.tar.gz 到/opt  
mkdir -p /usr/java
tar xf /opt/jdk-8u181-linux-x64.tar.gz -C /usr/java

cat > /etc/profile.d/jdk8.sh << EOF
export JAVA_HOME=/usr/java/jdk1.8.0_181
export PATH=$PATH:$JAVA_HOME/bin:/usr/local/bin
export CLASSPATH=$JAVA_HOME/lib
EOF
source /etc/profile.d/jdk8.sh
java -version



其它主机安装 

for host in idc-bigdata-{02..03}
do  
       ssh $host mkdir -p /usr/java
	scp -r  /usr/java/jdk1.8.0_181 $host:/usr/java
done

cat > /etc/profile.d/jdk8.sh << EOF
export JAVA_HOME=/usr/java/jdk1.8.0_181
export PATH=$PATH:$JAVA_HOME/bin:/usr/local/bin
export CLASSPATH=$JAVA_HOME/lib
EOF
source /etc/profile.d/jdk8.sh
java -version



报错

ln -sf /usr/lib64/libLLVM-7.0.0.so /usr/lib64/libLLVM-7.so

2.16 基本工具安装
yum istall -y psmisc vim net-tools wget iotop iftop 
 
NameNode主备切换依赖fuser,所有nameNode节点安装psmisc


三、 zookeeper 集群安装

生产环境需要3到5个节点做集群

Zookeeper 版本3.8

以下操作在3个节点上执行。

所有节点安装zookeeper

3.1 解压安装

所有节点

tar xf apache-zookeeper-3.8.0-bin.tar.gz  -C /usr/local
ln -sf  /usr/local/apache-zookeeper-3.8.0-bin /usr/local/zookeeper
ls -lh  /usr/local/


scp -r /usr/local/apache-zookeeper-3.8.0-bin idc-bigdata-02:/usr/local
scp -r /usr/local/apache-zookeeper-3.8.0-bin idc-bigdata-03:/usr/local

软连接
ln -sf  /usr/local/apache-zookeeper-3.8.0-bin /usr/local/zookeeper



for host in idc-bigdata-{02..03}
do
	scp -r  apache-zookeeper-3.8.0-bin.tar.gz $host:/usr/local
done


3.2 配置ZK环境变量

所有节点执行

cat > /etc/profile.d/zookeeper.sh <
3.3 修改zookeeper配置文件

所有节点执行

cat >/usr/local/zookeeper/conf/zoo.cfg<
3.4 配置zookeeper myid

创建myid文件,id在整体中必须是唯一的,并且应该具有1到255之间的值,
主配置文件中的server id 要和其当前主节点中的myid保持一致,分别在3个节点上执行

创建data和log目录:
mkdir -p /data/zookeeper/{data,logs}

#idc-bigdata-01
mkdir -p  /data/zookeeper/data
echo "1" > /data/zookeeper/data/myid  

#idc-bigdata-02
mkdir -p  /data/zookeeper/data
echo "2" > /data/zookeeper/data/myid 

#idc-bigdata-03
mkdir -p  /data/zookeeper/data
echo "3" > /data/zookeeper/data/myid   


#idc-bigdata-04
mkdir -p  /data/zookeeper/data
echo "4" > /data/zookeeper/data/myid 

#idc-bigdata-05
mkdir -p  /data/zookeeper/data
echo "5" > /data/zookeeper/data/myid   

3.5 配置systemd 服务

创建zookeeper用户 可选 这里使用root启动服务
useradd -r -s /bin/false zookeeper
chown -R zookeeper:zookeeper /usr/local/zookeeper

使用systemd管理zookeeper服务

cat > /usr/lib/systemd/system/zookeeper.service << EOF
[Unit]
Description=Zookeeper Service

[Service]
Type=simple
Environment="JAVA_HOME=/usr/java/jdk1.8.0_181"
WorkingDirectory=/usr/local/zookeeper/
PIDFile=/usr/local/zookeeper/data/zookeeper_server.pid
SyslogIdentifier=zookeeper
User=root
Group=root
ExecStart=/usr/local/zookeeper/bin/zkServer.sh start
ExecStop=/usr/local/zookeeper/bin/zkServer.sh stop
Restart=always
TimeoutSec=20
SuccessExitStatus=130 143
Restart=on-failure

[Install]
WantedBy=multi-user.target
EOF

3.6 启动ZK服务

启动zookeeper服务,并设为开机启动

systemctl daemon-reload  && systemctl enable zookeeper  && systemctl restart zookeeper && systemctl status zookeeper

#systemctl enable --now zookeeper

3.7 验证状态

查看zookeeper主备状态

[hadoop@idc-bigdata-01 ~]$ xshell  zkServer.sh status
==================xshell zkServer.sh status @idc-bigdata-01======================

Authorized users only. All activities may be monitored and reported.
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower
==================xshell zkServer.sh status @idc-bigdata-02======================

Authorized users only. All activities may be monitored and reported.
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: leader
==================xshell zkServer.sh status @idc-bigdata-03======================

Authorized users only. All activities may be monitored and reported.
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower


四、Hadoop集群部署

Hadoop安装配置
官网下载地址:https://hadoop.apache.org/releases.html

4.1 下载hadoop

将下载好的hadoop-3.3.5.tar.gz包解压到 /usr/module下

mkdir -p /opt/software
chown -R hadoop:hadoop /opt/software
wget https://mirrors.aliyun.com/apache/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz -P /opt/software

4.2 解压hadoop
mkdir -p /usr/module
tar xf  /opt/software/hadoop-3.3.5.tar.gz -C /usr/module
ln -sf /opt/module/hadoop-3.3.5 /opt/module/hadoop
chown -R hadoop:hadoop /opt/module/hadoop*

4.3 hadoop 环境变量配置

添加以下参数

vim /etc/profile.d/myenv.sh


# HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.3.5
export HADOOP_CONF_DIR=/opt/module/hadoop-3.3.5/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
# ZOO_HOME
#export ZOO_HOME=/opt/module/apache-zookeeper-3.8.0-bin
#export PATH=$PATH:$ZOO_HOME/bin
# HIVE_HOME
export HIVE_HOME=/opt/module/apache-hive-3.1.2-bin
export PATH=$PATH:$HIVE_HOME/bin
# SPARK_HOME
#export SPARK_HOME=/opt/module/spark-3.1.3-bin-hadoop3.2
export SPARK_HOME=/opt/module/spark-3.3.2-bin-hadoop3
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
# KAFKA_HOME
#export KAFKA_HOME=/opt/module/kafka_2.12-3.2.0
#export PATH=$PATH:$KAFKA_HOME/bin
# HBASE_HOME
#export HBASE_HOME=/opt/module/hbase-2.4.13
export HBASE_HOME=/opt/module/hbase-2.5.3
#export HBASE_HOME=/opt/module/hbase-2.5.3-hadoop3
export PATH=$PATH:$HBASE_HOME/bin
# PHOENIX_HOME
export PHOENIX_HOME=/opt/module/phoenix-hbase-2.4-5.1.2-bin
export PHOENIX_CLASSPATH=$PHOENIX_HOME
export PATH=$PATH:$PHOENIX_HOME/bin


# JAVA_HOME
#export JAVA_HOME=/opt/module/jdk1.8.0_181
#export PATH=$PATH:$JAVA_HOME/bin

# M2_HOME
#export M2_HOME=/opt/module/maven-3.8.6
#export PATH=$PATH:$M2_HOME/bin

# EFAK HOME
#export KE_HOME=/opt/module/efak-web-3.0.1
#export PATH=$PATH:$KE_HOME/bin

# FLINK_HOME
#export FLINK_HOME=/opt/module/flink-1.13.6
export FLINK_HOME=/opt/module/flink-1.13.1
export PATH=$PATH:$FLINK_HOME/bin

#KYUUBI_HOME
export KYUUBI_HOME=/opt/module/apache-kyuubi-1.7.1-bin
export PATH=$PATH:$KYUUBI_HOME/bin

# HADOOP_CLASSPATH
export HADOOP_CLASSPATH=$(hadoop classpath)

加载变量

source /etc/profile.d/myenv.sh

查看 hadoop 版本
[root@idc-bigdata-01 ~]# hdfs version


环境变量根据需要修改

4.4 hadoop安装目录介绍
bin:Hadoop最基本的管理脚本和使用脚本的目录,这些脚本是sbin目录下管理脚本的基础实现,用户可以直接使用这些脚本管理和使用Hadoop。 
etc:Hadoop配置文件所在的目录,包括core-site.xml、hdfs-site.xml、mapred-site.xml等从Hadoop1.0继承而来的配置文件和yarn-site.xml等Hadoop2.0新增的配置文件。 
include:对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头文件均是用C++定义的,通常用于C++程序访问HDFS或者编写MapReduce程序。 
lib:该目录包含了Hadoop对外提供的编程动态库和静态库,与include目录中的头文件结合使用。 
libexec:各个服务对用的shell配置文件所在的目录,可用于配置日志输出、启动参数(比如JVM参数)等基本信息。 
sbin:Hadoop管理脚本所在的目录,主要包含HDFS和YARN中各类服务的启动/关闭脚本。 
share:Hadoop各个模块编译后的jar包所在的目录,官方自带示例。

4.5 配置hadoop

Hadoop配置文件修改(注意:以下所有操作都在idc-bigdata-01主机进行)
Hadoop安装主要就是配置文件的修改,一般在主节点进行修改,完毕后scp下发给其他各个从节点机器
Hadoop安装目录下的etc/hadoop目录中,需修改core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、workers文件,根据实际情况修改配置信息。

4.5.1 修改hadoop-env.sh

该文件中设置的是Hadoop运行时需要的环境变量。JAVA_HOME是必须设置的,即使我们当前的系统中设置了JAVA_HOME
,它也是不认识的,因为Hadoop即使是在本机上执行,它也是把当前的执行环境当成远程服务器。

vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_181
export HDFS_NAMENODE_USER=hadoop
export HDFS_DATANODE_USER=hadoop
export HADOOP_SHELL_EXECNAME=hadoop
export HDFS_SECONDARYNAMENODE_USER=hadoop
export YARN_RESOURCEMANAGER_USER=hadoop
export YARN_NODEMANAGER_USER=hadoop
export HDFS_JOURNALNODE_USER=hadoop
export HDFS_ZKFC_USER=hadoop

4.5.2 修改yarn-env.sh

这一步可选
vi $HADOOP_HOME/etc/hadoop/yarn-env.sh

export YARN_REGISTRYDNS_SECURE_USER=hadoop
export YARN_RESOURCEMANAGER_USER=hadoop
export YARN_NODEMANAGER_USER=hadoop

4.5.3修改core-site.xml

vi $HADOOP_HOME/etc/hadoop/core-site.xml







    
    
    
      fs.defaultFS
      hdfs://idc-bigdata-cluster
    

    
    
    
      hadoop.tmp.dir
      /datas/dfs/tmp
    

    
    
      hadoop.http.staticuser.user
      hadoop
    

    
    
      hadoop.proxyuser.hadoop.hosts
      *
    

    
    
      hadoop.proxyuser.hadoop.groups
      *
    

    
    
      hadoop.proxyuser.hadoop.users
      *
    

    
    
      io.file.buffer.size
      131072
    

    
      
      fs.trash.interval  
      4320  
      
      
      fs.trash.checkpoint.interval  
      0 
    

    
    
      ha.zookeeper.quorum
      idc-bigdata-01:2181,idc-bigdata-02:2181,idc-bigdata-03:2181
    



配置说明:

fs.defaultFS 指定HDFS中NameNode的地址
hadoop.tmp.dir 指定hadoop运行时产生文件的存储目录,是其他临时目录的父目录 如果不指定dfs.namenode.name.dir dfs.datanode.data.dir 默认数据会存hadoop.tmp.dir所指路径下的dfs路径中
ha.zookeeper.quorum ZooKeeper地址列表,ZKFailoverController将在自动故障转移中使用这些地址。
io.file.buffer.size 在序列文件中使用的缓冲区大小,流文件的缓冲区为4K
fs.defaultFS:指定namenode的hdfs协议的文件系统通信地址,可以指定一个主机+端口
hadoop.tmp.dir:hadoop集群在工作时存储的一些临时文件存放的目录
4.5.4 修改hdfs-site.xml

vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml








    
    
    
      dfs.nameservices
      idc-bigdata-cluster
    

    
    
    
      dfs.ha.namenodes.idc-bigdata-cluster
      nn1,nn2,nn3
    

    
    
    
      dfs.namenode.rpc-address.idc-bigdata-cluster.nn1
      idc-bigdata-01:8020
    
    
      dfs.namenode.rpc-address.idc-bigdata-cluster.nn2
      idc-bigdata-02:8020
    
    
      dfs.namenode.rpc-address.idc-bigdata-cluster.nn3
      idc-bigdata-03:8020
    

    
    
    
      dfs.namenode.http-address.idc-bigdata-cluster.nn1
      idc-bigdata-01:9870
    
    
      dfs.namenode.http-address.idc-bigdata-cluster.nn2
      idc-bigdata-02:9870
    
    
      dfs.namenode.http-address.idc-bigdata-cluster.nn3
      idc-bigdata-03:9870
    

    
    
      dfs.replication
      3
    

    
    
      dfs.blocksize
      134217728
    


    
    
    
      dfs.namenode.name.dir
      file:///datas/dfs/nn
    

    
    
    
      dfs.datanode.data.dir
      /datas/dfs/dn1,/datas/dfs/dn2
    

    
    
      dfs.journalnode.edits.dir
      /datas/dfs/jn
    

    
    
    
        dfs.namenode.shared.edits.dir
        qjournal://idc-bigdata-01:8485;idc-bigdata-02:8485;idc-bigdata-03:8485/idc-bigdata-cluster
    

    
    
    
      dfs.client.failover.proxy.provider.idc-bigdata-cluster
      org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
    

    
    
    
      dfs.ha.automatic-failover.enabled
      true
    

    
    
      dfs.ha.fencing.methods
      sshfence
             shell(/bin/true)
      
    

    
    
    
      dfs.ha.fencing.ssh.private-key-files
      /home/hadoop/.ssh/id_rsa
    

    
      dfs.ha.fencing.ssh.connect-timeout
      30000
    

    >
    
      dfs.client.use.datanode.hostname
      true
    
    
    
      dfs.permissions
      false
    

    
    

配置说明:

dfs.nameservices 配置命名空间,所有namenode节点配置在命名空间mycluster下
dfs.replication 指定dataNode存储block的副本数量,默认值是3个
dfs.blocksize 大型文件系统HDFS块大小为256MB,默认是128MB
dfs.namenode.rpc-address 各个namenode的 rpc通讯地址
dfs.namenode.http-address 各个namenode的http状态页面地址
dfs.namenode.name.dir 存放namenode名称表(fsimage)的目录
dfs.datanode.data.dir 存放datanode块的目录
dfs.namenode.shared.edits.dir HA集群中多个NameNode之间的共享存储上的目录。此目录将由活动服务器写入,由备用服务器读取,以保持名称空间的同步。
dfs.journalnode.edits.dir 存储journal edit files的目录
dfs.ha.automatic-failover.enabled 是否启用故障自动处理
dfs.ha.fencing.methods 处于故障状态的时候hadoop要防止脑裂问题,所以在standby机器切换到active后,hadoop还会试图通过内部网络的ssh连过去,并把namenode的相关进程给kill掉,一般是sshfence 就是ssh方式
dfs.ha.fencing.ssh.private-key-files 配置了 ssh用的 key 的位置。

dfs.secondary.http.address:secondarynamenode运行节点的信息,应该和namenode存放在不同节点
dfs.repliction:hdfs的副本数设置,默认为3
dfs.namenode.name.dir:namenode数据的存放位置,元数据存放位置
dfs.datanode.data.dir:datanode数据的存放位置,block块存放的位置

4.5.5修改mapred-site.xml

vi $HADOOP_HOME/etc/hadoop/mapred-site.xml







    
    
      mapreduce.framework.name
      yarn
    

    
    
      mapreduce.job.ubertask.enable
      true
    

    
    
      mapreduce.jobhistory.address
      idc-bigdata-03:10020
    

    
    
    
      mapreduce.jobhistory.webapp.address
      idc-bigdata-03:19888
    

    
      mapreduce.map.memory.mb
      1536
    
    
      mapreduce.map.java.opts
      -Xmx1024M
    
    
    mapreduce.reduce.memory.mb
    3072
    
    
    mapreduce.reduce.java.opts
    -Xmx2560M
    


配置说明
mapreduce.framework.name 设置MapReduce运行平台为yarn
mapreduce.jobhistory.address 历史服务器的地址
mapreduce.jobhistory.webapp.address 历史服务器页面的地址
mapreduce.framework.name:指定mapreduce框架为yarn方式
mapreduce.jobhistory.address:指定历史服务器的地址和端口
mapreduce.jobhistory.webapp.address:查看历史服务器已经运行完的Mapreduce作业记录的web地址,需要启动该服务才行
默认 MapReduce Job 是存在内存中的,重启之后就会丢失,所以需要配置历史服务器,将信息存储在 HDFS 中
4.5.6 修改yarn-site.xml

vi $HADOOP_HOME/etc/hadoop/yarn-site.xml





    
    
    
        yarn.nodemanager.aux-services
        mapreduce_shuffle
    

    
    
        yarn.resourcemanager.connect.retry-interval.ms
        2000
    

    
    
    
        yarn.resourcemanager.ha.enabled
        true
        启动Yran HA模式
    

    
    
        yarn.resourcemanager.cluster-id
        idc-bigdata-yarn-cluster
    

    
    
        yarn.resourcemanager.ha.rm-ids
        rm1,rm2
    

     
    
        yarn.resourcemanager.recovery.enabled
        true
    

    
    
      yarn.resourcemanager.ha.automatic-failover.enabled
      true
      开启 ResourceManager 故障自动切换
    

    
      yarn.resourcemanager.ha.automatic-failover.embedded
      true
    

    
    
    
        yarn.resourcemanager.hostname.rm1
        idc-bigdata-01
    
    
    
        yarn.resourcemanager.webapp.address.rm1
        idc-bigdata-01:8088
    
    
    
        yarn.resourcemanager.address.rm1
        idc-bigdata-01:8032
    
    
    
        yarn.resourcemanager.scheduler.address.rm1  
        idc-bigdata-01:8030
    
      
    
        yarn.resourcemanager.resource-tracker.address.rm1
        idc-bigdata-01:8031
    

    
    
    
        yarn.resourcemanager.hostname.rm2
        idc-bigdata-02
    
    
        yarn.resourcemanager.webapp.address.rm2
        idc-bigdata-02:8088
    
    
        yarn.resourcemanager.address.rm2
        idc-bigdata-02:8032
    
    
        yarn.resourcemanager.scheduler.address.rm2
        idc-bigdata-02:8030
    
    
        yarn.resourcemanager.resource-tracker.address.rm2
        idc-bigdata-02:8031
    
 
     
    
        yarn.resourcemanager.zk-address
        idc-bigdata-01:2181,idc-bigdata-02:2181,idc-bigdata-03:2181
    

     
    
        yarn.resourcemanager.store.class    
        org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
    

    
    
        yarn.nodemanager.env-whitelist
        JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME
    

    
    
        Number of threads to handle scheduler interface.
        yarn.resourcemanager.scheduler.client.thread-count
        8
    

    
    
        yarn.nodemanager.resource.count-logical-processors-as-cores
        false
    

    
    
        yarn.nodemanager.resource.detect-hardware-capabilities
        false
    

    
    
        yarn.nodemanager.resource.pcores-vcores-multiplier
        1.0
    

    
    
    
        yarn.scheduler.minimum-allocation-mb
        1024
    
    
    
    
        yarn.scheduler.maximum-allocation-mb
        10240
    

    
    
    
    
        yarn.nodemanager.resource.memory-mb
        56320
    

    
    
        yarn.scheduler.minimum-allocation-vcores
        1
    

    
    
    
        yarn.nodemanager.resource.cpu-vcores
        4
    

    
    
        yarn.scheduler.maximum-allocation-vcores
        4
    

    
    
    
    
        yarn.nodemanager.pmem-check-enabled
        false
    
    
    
    
        yarn.nodemanager.vmem-check-enabled
        false
    
    
    
        yarn.nodemanager.vmem-pmem-ratio
        2.1
    

    
    
        yarn.log-aggregation-enable
        true
    

    
    
      
        yarn.log.server.url  
        http://idc-bigdata-03:19888/jobhistory/logs
    

    
    
    
        yarn.log-aggregation.retain-seconds
        604800
    

    
      yarn.acl.enable
      false
    




4.5.7 yarn 队列配置

创建两个队列分别为online和offline,将这两个队列的资源分别分配为40%、40%,且允许在资源不足时借用其他队列的资源,
online队列里面运行实时任务
offline队列里面运行离线任务

vi $HADOOP_HOME/etc/hadoop/capacity-scheduler.xml




   
  
    yarn.scheduler.capacity.maximum-applications
    10000
  

  
  
    yarn.scheduler.capacity.maximum-am-resource-percent
    0.2
  

  
  
  
  
    yarn.scheduler.capacity.resource-calculator
    org.apache.hadoop.yarn.util.resource.DefaultResourceCalculator
  

  
  
  
    yarn.scheduler.capacity.root.queues
    default,online,offline
  


  

  
  
    yarn.scheduler.capacity.root.default.capacity
    20
  

  
  

  
    yarn.scheduler.capacity.root.default.maximum-capacity
    80
  

  
  
  
    yarn.scheduler.capacity.root.default.user-limit-factor
    1
  

  
  
    yarn.scheduler.capacity.root.default.state
    RUNNING
  

  
  
  
    yarn.scheduler.capacity.root.default.acl_submit_applications
    *
  

  
  
  

  
    yarn.scheduler.capacity.root.default.acl_administer_queue
    *
  

  
  
    yarn.scheduler.capacity.root.default.acl_application_max_priority
    *
  

  
  
  
  
  
    yarn.scheduler.capacity.root.default.maximum-application-lifetime
    -1
  

  
  
  
    yarn.scheduler.capacity.root.default.default-application-lifetime
    -1
  

  

  
  
    yarn.scheduler.capacity.root.online.capacity
    40
  

  
  

  
    yarn.scheduler.capacity.root.online.maximum-capacity
    80
  

  
  
  
    yarn.scheduler.capacity.root.online.user-limit-factor
    1
  

  
  
    yarn.scheduler.capacity.root.online.state
    RUNNING
  

  
  
  
    yarn.scheduler.capacity.root.online.acl_submit_applications
    *
  

  
  
  

  
    yarn.scheduler.capacity.root.online.acl_administer_queue
    *
  

  
  
    yarn.scheduler.capacity.root.online.acl_application_max_priority
    *
  

  
  
  
  
  
    yarn.scheduler.capacity.root.online.maximum-application-lifetime
    -1
  

  
  
  
    yarn.scheduler.capacity.root.online.default-application-lifetime
    -1
  

  

  
  
    yarn.scheduler.capacity.root.offline.capacity
    40
  

  
  

  
    yarn.scheduler.capacity.root.offline.maximum-capacity
    80
  

  
  
  
    yarn.scheduler.capacity.root.offline.user-limit-factor
    1
  

  
  
    yarn.scheduler.capacity.root.offline.state
    RUNNING
  

  
  
  
    yarn.scheduler.capacity.root.offline.acl_submit_applications
    *
  

  
  
  

  
    yarn.scheduler.capacity.root.offline.acl_administer_queue
    *
  

  
  
    yarn.scheduler.capacity.root.offline.acl_application_max_priority
    *
  

  
  
  
  
  
    yarn.scheduler.capacity.root.offline.maximum-application-lifetime
    -1
  

  
  
  
    yarn.scheduler.capacity.root.offline.default-application-lifetime
    -1
  




  
    yarn.scheduler.capacity.node-locality-delay
    40
  

  
    yarn.scheduler.capacity.rack-locality-additional-delay
    -1
    
      Number of additional missed scheduling opportunities over the node-locality-delay
      ones, after which the CapacityScheduler attempts to schedule off-switch containers,
      instead of rack-local ones.
      Example: with node-locality-delay=40 and rack-locality-delay=20, the scheduler will
      attempt rack-local assignments after 40 missed opportunities, and off-switch assignments
      after 40+20=60 missed opportunities.
      When setting this parameter, the size of the cluster should be taken into account.
      We use -1 as the default value, which disables this feature. In this case, the number
      of missed opportunities for assigning off-switch containers is calculated based on
      the number of containers and unique locations specified in the resource request,
      as well as the size of the cluster.
    
  

  
    yarn.scheduler.capacity.queue-mappings
    
    
      A list of mappings that will be used to assign jobs to queues
      The syntax for this list is [u|g]:[name]:[queue_name][,next mapping]*
      Typically this list will be used to map users to queues,
      for example, u:%user:%user maps all users to queues with the same name
      as the user.
    
  

  
    yarn.scheduler.capacity.queue-mappings-override.enable
    false
    
      If a queue mapping is present, will it override the value specified
      by the user? This can be used by administrators to place jobs in queues
      that are different than the one specified by the user.
      The default is false.
    
  

  
    yarn.scheduler.capacity.per-node-heartbeat.maximum-offswitch-assignments
    1
    
      Controls the number of OFF_SWITCH assignments allowed
      during a node's heartbeat. Increasing this value can improve
      scheduling rate for OFF_SWITCH containers. Lower values reduce
      "clumping" of applications on particular nodes. The default is 1.
      Legal values are 1-MAX_INT. This config is refreshable.
    
  


  
    yarn.scheduler.capacity.application.fail-fast
    false
    
      Whether RM should fail during recovery if previous applications'
      queue is no longer valid.
    
  

  
    yarn.scheduler.capacity.workflow-priority-mappings
    
    
      A list of mappings that will be used to override application priority.
      The syntax for this list is
      [workflowId]:[full_queue_name]:[priority][,next mapping]*
      where an application submitted (or mapped to) queue "full_queue_name"
      and workflowId "workflowId" (as specified in application submission
      context) will be given priority "priority".
    
  

  
    yarn.scheduler.capacity.workflow-priority-mappings-override.enable
    false
    
      If a priority mapping is present, will it override the value specified
      by the user? This can be used by administrators to give applications a
      priority that is different than the one specified by the user.
      The default is false.
    
  



4.5.8 修改workers
cat > $HADOOP_HOME/etc/hadoop/workers <

配置说明
workers 配置datanode工作的机器,而datanode主要是用来存放数据文件的

4.5.9分发配置文件

for host in idc-bigdata-{02..03}
do
echo =========$host hadoop install=======================
scp -r /opt/module/hadoop-3.3.5  $host:/opt/module
ssh $host ln -sf /opt/module/hadoop-3.3.5 /opt/module/hadoop
ssh $host chown -R hadoop:hadoop /opt/module/hadoop*
scp -r /etc/profile.d/myenv.sh $host:/etc/profile.d/myenv.sh
ssh $host source /etc/profile.d/myenv.sh
echo 
done

4.6 磁盘分区挂载
parted /dev/sdb  
mklabel gpt
mkpart primary xfs 0% 100%
mkfs.xfs /dev/sdb1

parted /dev/sdc  
mklabel gpt
mkpart primary xfs 0% 100%
mkfs.xfs /dev/sdc1

mkdir -p /datas/dfs/{dn1,dn2}
chown -R hadoop:hadoop /datas/dfs

添加开机挂载

vim /etc/fstab 

/dev/sdb1   /datas/dfs/dn1                       xfs     defaults        0 0
/dev/sdc1   /datas/dfs/dn2                       xfs     defaults        0 0

加载
mount -a 

查看

[root@idc-bigdata-01 ~]# df -hT|grep datas
/dev/sdb1             xfs       100G  747M  100G   1% /datas/dfs/dn1
/dev/sdc1             xfs       100G  747M  100G   1% /datas/dfs/dn2

4.7 启动Hadoop

按以下顺序启动hadoop相关服务:

4.7.1 第一次启动集群(必须按顺序执行否则启动不成功)
1.启动zookeeper集群

zkServer.sh start
检查启动情况: jps ,每个节点包含QuorumPeerMain进程代表zk集群启动成功或者每个节点执行:
zkServer.sh status,查看是否有leader节点。

2.每个namenode节点上启动journalnode进程
hdfs --daemon start journalnode

3.在第一台namenode节点上格式化namenode
hdfs namenode -format
启动这台节点的namenode
hdfs --daemon start namenode

4.其他Namenode节点上首次要手动同步一次数据,在另外俩个节点执行:
hdfs namenode -bootstrapStandby
同步完成后启动namenode
hdfs --daemon start namenode

5.初始化ZKFC  注这里的初始化也可以放在第一步操作
ZKFC用于监控active namenode节点是否挂掉,通知其它节点上的ZKFC强行杀死自己ZKFC节点上的namenode
(防止其假死状态产生集群namenode脑裂的发生),然后选举出其他namenode为active节点
集群首次搭建需要在zookeeper中初始化namenode信息,在namenode1节点执行命令:
hdfs zkfc -formatZK
主节点启动zkfc
hdfs --daemon start zkfc

#### 启动HDFS相关进程
 在namenode1节点上,启动HDFS整个集群(包括其他节点)的其他进程(Datanode/DFSZKFailoverController),执行命令:
start-dfs.sh
start-yarn.sh
或者执行start-all.sh 

6.查看namenode active节点

hdfs haadmin -getAllServiceState
[hadoop@idc-bigdata-01 ~]$ hdfs haadmin -getAllServiceState
idc-bigdata-01:8020                                active    
idc-bigdata-02:8020                                standby   
idc-bigdata-03:8020                                standby  

7. 启动日志服务
idc-bigdata-03
mapred --daemon start historyserver


8. 验证高可用
kill -9 active namenode进程,查看页面状态,可发现另外某个namenode自动切换成active状态。
记住kill掉的,实验结束后再启动起来。
kill 或 hdfs --daemon stop namenode 
集群一共一有namenode 最多可以容忍两个宕机


9. 验证集群是否可用

hdfs dfs -mkdir /data
hdfs dfs -mkdir hdfs://idc-bigdata-cluster/wordcount
hdfs dfs -put wordcount.txt hdfs://idc-bigdata-cluster/wordcount
hdfs dfs -ls hdfs://idc-bigdata-cluster/wordcount

4.8 具体操作步骤
4.8.1 初始化zkfc

格式化ZooKeeper集群,目的是在ZooKeeper集群上建立HA的相应节点,任意节点执行
这里使用第一个节点 idc-bigdata-01

su - hadoop 
hdfs zkfc -formatZK

执行输出

2023-06-02 04:45:17,095 INFO ha.ActiveStandbyElector: Session connected.
2023-06-02 04:45:17,139 INFO ha.ActiveStandbyElector: Successfully created /hadoop-ha/idc-bigdata-cluster in ZK.
2023-06-02 04:45:17,251 INFO zookeeper.ZooKeeper: Session: 0x2000134fa350000 closed
2023-06-02 04:45:17,252 WARN ha.ActiveStandbyElector: Ignoring stale result from old client with sessionId 0x2000134fa350000
2023-06-02 04:45:17,252 INFO zookeeper.ClientCnxn: EventThread shut down for session: 0x2000134fa350000
2023-06-02 04:45:17,257 INFO tools.DFSZKFailoverController: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down DFSZKFailoverController at idc-bigdata-01/10.62.1.192
************************************************************/

验证zkfc是否格式化成功

# zkCli.sh

[zk: localhost:2181(CONNECTED) 1] ls /
[hadoop-ha, zookeeper]
[zk: localhost:2181(CONNECTED) 2] ls /hadoop-ha 
[idc-bigdata-cluster]


4.8.2 启动journalnode

idc-bigdata-01、idc-bigdata-02及idc-bigdata-03节点启动journalnode

su - hadoop
hdfs --daemon start journalnode   每个节点都需要启动

jps 查看java进程

[hadoop@idc-bigdata-01 ~]$ jps -l
46520 org.apache.hadoop.hdfs.qjournal.server.JournalNode

每个节点上都有这个进程  
监听端口为:8485

4.8.3 namenode节点格式化

在其中一个namenode节点执行格式化,以在idc-bigdata-01节点为例

su - hadoop
hdfs namenode -format

执行输出 

2023-06-02 04:59:50,441 INFO util.GSet: VM type       = 64-bit
2023-06-02 04:59:50,442 INFO util.GSet: 0.029999999329447746% max memory 3.2 GB = 1007.6 KB
2023-06-02 04:59:50,442 INFO util.GSet: capacity      = 2^17 = 131072 entries
2023-06-02 04:59:51,244 INFO namenode.FSImage: Allocated new BlockPoolId: BP-1983029622-10.62.1.192-1685653191244
2023-06-02 04:59:51,314 INFO common.Storage: Storage directory /datas/dfs/name has been successfully formatted.
2023-06-02 04:59:51,597 INFO namenode.FSImageFormatProtobuf: Saving image file /datas/dfs/name/current/fsimage.ckpt_0000000000000000000 using no compression
2023-06-02 04:59:51,716 INFO namenode.FSImageFormatProtobuf: Image file /datas/dfs/name/current/fsimage.ckpt_0000000000000000000 of size 398 bytes saved in 0 seconds .
2023-06-02 04:59:51,745 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
2023-06-02 04:59:51,835 INFO namenode.FSNamesystem: Stopping services started for active state
2023-06-02 04:59:51,835 INFO namenode.FSNamesystem: Stopping services started for standby state
2023-06-02 04:59:51,841 INFO namenode.FSImage: FSImageSaver clean checkpoint: txid=0 when meet shutdown.
2023-06-02 04:59:51,842 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at idc-bigdata-01/10.62.1.192
************************************************************/

4.8.4 启动idc-bigdata-01节点nameNode

启动idc-bigdata-01节点nameNode

su - hadoop
hdfs --daemon start namenode

查看进程

[hadoop@idc-bigdata-01 ~]$ jps
47863 NameNode
46520 JournalNode
47918 Jps

[hadoop@idc-bigdata-01 ~]$ ls -lh /datas/dfs/name/
total 4.0K
drwx------ 2 hadoop hadoop 112 Jun  2 04:59 current
-rw-r--r-- 1 hadoop hadoop  20 Jun  2 05:06 in_use.lock
4.8.5 同步其它节点nameNode数据

将idc-bigdata-01节点上namenode的数据同步到其他nameNode节点,在idc-bigdata-02、idc-bigdata-03节点执行:


hdfs namenode -bootstrapStandby


执行过程


idc-bigdata-02

=====================================================
2023-06-01 21:13:27,641 INFO common.Storage: Storage directory /datas/dfs/name has been successfully formatted.
2023-06-01 21:13:27,694 INFO namenode.FSEditLog: Edit logging is async:true
2023-06-01 21:13:27,776 INFO namenode.TransferFsImage: Opening connection to http://idc-bigdata-01:9870/imagetransfer?getimage=1&txid=0&storageInfo=-66:53130945:1685653191244:CID-c35ed3c1-4131-4a48-bf1b-7d8ffe34a40d&bootstrapstandby=true
2023-06-01 21:13:27,877 INFO common.Util: Combined time for file download and fsync to all disks took 0.00s. The file download took 0.00s at 0.00 KB/s. Synchronous (fsync) write to disk of /datas/dfs/name/current/fsimage.ckpt_0000000000000000000 took 0.00s.
2023-06-01 21:13:27,878 INFO namenode.TransferFsImage: Downloaded file fsimage.ckpt_0000000000000000000 size 398 bytes.
2023-06-01 21:13:27,885 INFO ha.BootstrapStandby: Skipping InMemoryAliasMap bootstrap as it was not configured
2023-06-01 21:13:27,888 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at idc-bigdata-02/10.62.1.193

idc-bigdata-03
=====================================================
2023-06-02 05:00:58,927 INFO common.Storage: Storage directory /datas/dfs/name has been successfully formatted.
2023-06-02 05:00:58,971 INFO namenode.FSEditLog: Edit logging is async:true
2023-06-02 05:00:59,045 INFO namenode.TransferFsImage: Opening connection to http://idc-bigdata-01:9870/imagetransfer?getimage=1&txid=0&storageInfo=-66:53130945:1685653191244:CID-c35ed3c1-4131-4a48-bf1b-7d8ffe34a40d&bootstrapstandby=true
2023-06-02 05:00:59,059 INFO common.Util: Combined time for file download and fsync to all disks took 0.00s. The file download took 0.00s at 0.00 KB/s. Synchronous (fsync) write to disk of /datas/dfs/name/current/fsimage.ckpt_0000000000000000000 took 0.00s.
2023-06-02 05:00:59,059 INFO namenode.TransferFsImage: Downloaded file fsimage.ckpt_0000000000000000000 size 398 bytes.
2023-06-02 05:00:59,077 INFO ha.BootstrapStandby: Skipping InMemoryAliasMap bootstrap as it was not configured
2023-06-02 05:00:59,081 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at idc-bigdata-03/10.62.1.194
************************************************************/
4.8.6 启动其它节点nameNode

启动idc-bigdata-02及idc-bigdata-03节点nameNode

hdfs --daemon start namenode


查看进程

======================idc-bigdata-01======================
47863 NameNode
46520 JournalNode

======================idc-bigdata-02======================

21208 NameNode
19946 JournalNode
======================idc-bigdata-03======================
19938 JournalNode
21182 NameNode

监控端口 8020 9870



浏览器访问NameNode,当前所有NameNode都是standby状态:

http://idc-bigdata-01:9870/
http://idc-bigdata-02:9870/
http://idc-bigdata-03:9870/
4.9 启动所有其他服务,包括zkfc

start-all.sh

此时再次查看nameNode界面,发现已经选举出一个active节点:

http://idc-bigdata-01:9870/

======================idc-bigdata-01======================

52096 NameNode
53428 ResourceManager
52949 DFSZKFailoverController
52310 DataNode
53646 NodeManager
52638 JournalNode

======================idc-bigdata-02======================

23856 NameNode
24962 NodeManager
24514 DFSZKFailoverController
24051 DataNode
24775 ResourceManager
24269 JournalNode


======================idc-bigdata-03======================

24178 DFSZKFailoverController
24469 NodeManager
23931 JournalNode
23723 DataNode
23532 NameNode


4.10 验证hadoop功能

4.10.1 验证HDFS上传等功能
[hadoop@idc-bigdata-01 ~]$ hdfs dfs -put .bash_history /
[hadoop@idc-bigdata-01 ~]$ hdfs dfs -ls /
Found 12 items
-rw-r--r--   3 hadoop supergroup       7818 2023-06-02 10:23 /.bash_history
4.10.2 验证YARN功能
计算圆周率

[hadoop@idc-bigdata-01 ~]$ hadoop jar /opt/module/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.5.jar pi 10 100

......
Job Finished in 3.059 seconds
Estimated value of Pi is 3.14800000000000000000

4.10.3验证mapreduce功能
echo "hello hadoop" > wordtest
hadoop fs -put wordtest /wordtest

执行 mapreduce 后生成结果文件
hadoop jar /opt/module/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.5.jar wordcount /wordtest /result

查看统计结果

hadoop fs -cat /result/part-r-00000

[hadoop@idc-bigdata-01 ~]$ hadoop fs -cat /result/part-r-00000
hadoop	1
hello	1

4.10.4验证HA高可用性

测试是否能够完成自动故障转移。

之后刷新页面我们发现idc-bigdata-02节点(原standy)自动变成了 active namenode。
查看nodename状态

[hadoop@idc-bigdata-01 ~]$ hdfs haadmin -getAllServiceState 
idc-bigdata-01:8020                                standby   
idc-bigdata-02:8020                                active    
idc-bigdata-03:8020                                standby 

停止idc-bigdata-02 上namenode进程

在idc-bigdata-02节点active namenode上执行 jps ,确定namenode进程,kill 将其杀掉
kill -9 2424  或 hdfs --daemon stop namenode

[hadoop@idc-bigdata-02 ~]$ hdfs --daemon stop namenode
[hadoop@idc-bigdata-02 ~]$ jps
60886 Jps
53494 DataNode
54248 ResourceManager
53706 JournalNode
54443 NodeManager
53918 DFSZKFailoverController

查看namenode状态

[hadoop@idc-bigdata-02 ~]$ hdfs haadmin -getAllServiceState 
idc-bigdata-01:8020                                standby   
2023-06-02 11:37:47,527 INFO ipc.Client: Retrying connect to server: idc-bigdata-02/10.62.1.193:8020. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=1, sleepTime=1000 MILLISECONDS)
idc-bigdata-02:8020                                Failed to connect: Call From idc-bigdata-02/10.62.1.193 to idc-bigdata-02:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
idc-bigdata-03:8020                                active    
[hadoop@idc-bigdata-02 ~]$ hdfs haadmin -getServiceState nn1

现在namenode 已切换到idc-bigdata-03 

再次验证上传下载等功能是否正常



HA模式RM的active节点

yarn rmadmin -getAllServiceState 
yarn rmadmin -getServiceState rm1

切换
yarn rmadmin -transitionToStandby rm1

重置hadoop集群

删除旧数据

检查hadoop集群状态,如果集群中存在hadoop的服务进程,将hadoop的所有服务组件都关闭
关闭hadoop集群服务组件
清理hadoop集群安装目录下的data和logs目录

停上zookeeper 集群,删除 zookeeper 相关删除
rm -rf /data/zookeeper/data/version-2
rm -rf /datas/dfs/dn1/
rm -rf /datas/dfs/dn2/*
rm -rf /datas/dfs/jn
rm -rf /datas/dfs/nn
rm -rf /datas/dfs/tmp

按顺序重启初始化
1.启动zookeeper集群

zkServer.sh start
检查启动情况: jps ,每个节点包含QuorumPeerMain进程代表zk集群启动成功或者每个节点执行:
zkServer.sh status,查看是否有leader节点。

2.每个namenode节点上启动journalnode进程
hdfs --daemon start journalnode

3.在第一台namenode节点上格式化namenode
hdfs namenode -format
启动这台节点的namenode
hdfs --daemon start namenode

4.其他Namenode节点上首次要手动同步一次数据,在另外俩个节点执行:
hdfs namenode -bootstrapStandby
同步完成后启动namenode
hdfs --daemon start namenode

5.初始化ZKFC  注这里的初始化也可以放在第一步操作
ZKFC用于监控active namenode节点是否挂掉,通知其它节点上的ZKFC强行杀死自己ZKFC节点上的namenode
(防止其假死状态产生集群namenode脑裂的发生),然后选举出其他namenode为active节点
集群首次搭建需要在zookeeper中初始化namenode信息,在namenode1节点执行命令:
hdfs zkfc -formatZK
主节点启动zkfc
hdfs --daemon start zkfc

#### 启动HDFS相关进程
 在namenode1节点上,启动HDFS整个集群(包括其他节点)的其他进程(Datanode/DFSZKFailoverController),执行命令:
start-dfs.sh
start-yarn.sh
或者执行start-all.sh 

6.查看namenode active节点

hdfs haadmin -getAllServiceState
[hadoop@idc-bigdata-01 ~]$ hdfs haadmin -getAllServiceState
idc-bigdata-01:8020                                active    
idc-bigdata-02:8020                                standby   
idc-bigdata-03:8020                                standby  

7. 启动日志服务
idc-bigdata-03
mapred --daemon start historyserver


8. 验证高可用
kill -9 active namenode进程,查看页面状态,可发现另外某个namenode自动切换成active状态。
记住kill掉的,实验结束后再启动起来。
kill 或 hdfs --daemon stop namenode 
集群一共一有namenode 最多可以容忍两个宕机


9. 验证集群是否可用

hdfs dfs -mkdir /data
hdfs dfs -mkdir hdfs://idc-bigdata-cluster/wordcount
hdfs dfs -put wordcount.txt hdfs://idc-bigdata-cluster/wordcount
hdfs dfs -ls hdfs://idc-bigdata-cluster/wordcount

hadoop 文件分析

查看namenode 目录结构

ls -lh /datas/dfs/nn/current/

-rw-rw-r-- 1 hadoop hadoop   42 Jun  4 11:51 edits_0000000000000002362-0000000000000002363
-rw-rw-r-- 1 hadoop hadoop 1.0M Jun  4 11:51 edits_inprogress_0000000000000002364
-rw-rw-r-- 1 hadoop hadoop 9.0K Jun  4 10:28 fsimage_0000000000000002018
-rw-rw-r-- 1 hadoop hadoop   62 Jun  4 10:28 fsimage_0000000000000002018.md5
-rw-rw-r-- 1 hadoop hadoop  12K Jun  4 11:28 fsimage_0000000000000002263
-rw-rw-r-- 1 hadoop hadoop   62 Jun  4 11:28 fsimage_0000000000000002263.md5
-rw-rw-r-- 1 hadoop hadoop    5 Jun  4 11:51 seen_txid
-rw-r--r-- 1 hadoop hadoop  215 Jun  3 21:14 VERSION

fsimage是NameNode元数据在内存满了后,持久化保存到的文件。
fsimage*.md5 是校验文件,用于校验fsimage的完整性。
seen_txid 是hadoop的版本
vession文件里保存
namespaceID:NameNode的唯一ID
clusterID:集群ID NameNode和DataNode的集群ID应该一致,表明是一个集群

[root@idc-bigdata-01 ~]# more /datas/dfs/nn/current/VERSION
#Sat Jun 03 21:14:52 CST 2023
namespaceID=1498354829
clusterID=CID-24440b17-58ee-4d55-a589-ea0a5c5c0be6
cTime=1685798092376
storageType=NAME_NODE
blockpoolID=BP-899285325-10.62.1.192-1685798092376
layoutVersion=-66

注意:

如果需要重新格式化NameNode,需要先将原来NameNode和DataNode下的文件全部删除,不然会报错,NameNode和DataNode所在
目录是在core-site.xml中hadoop.tmp.dir、dfs.namenode.name.dir、dfs.datanode.data.dir属性配置的。

因为每次格式化,默认是创建一个集群ID,并写入NameNode和DataNode的VERSION文件中(VERSION文件所在目录为
dfs/name/current 和 dfs/data/current),重新格式化时,默认会生成一个新的集群ID,如果不删除原来的目录,
会导致namenode中的VERSION文件中是新的集群ID,而DataNode中是旧的集群ID,不一致时会报错。

本文地址:https://www.vps345.com/6584.html

搜索文章

Tags

docker 容器 运维 java-rabbitmq java 智能驾驶 BEVFusion Ubuntu 服务器带宽 上行带宽 上行速率 什么是上行带宽? PV计算 带宽计算 流量带宽 #docker #centos #容器 macos windows linux 服务器 嵌入式硬件 pytorch tensorflow #windows #自动化 #运维 网络 远程连接 vscode github ubuntu 无人机 机器人 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP AI Dify 大模型应用 CC攻击 攻击怎么办 ide #git #ssh #windows ubuntu24.04 todesk c# 开发语言 网络协议 网络安全 云原生 安全 ssh漏洞 ssh9.9p2 CVE-2025-23419 #linux #命令 #网络 ai nlp python c++ php harmonyos 华为 react native ssh remote-ssh #harmonyos #android #ios centos 人工智能 #macos #EasyConnect #java #华为 #ubuntu #linux 边缘计算 具身智能 强化学习 conda ROS 自动驾驶 经验分享 部署 IPMI wireshark #javascript #开发语言 #ecmascript #jenkins #人工智能 #云原生 ollama llm 深度学习 自动化 远程工作 debian wps 安卓 tomcat micropython esp32 单片机 mqtt 物联网 语言模型 AI大模型 DeepSeek agi #区块链 #智能合约 中间件 web安全 可信计算技术 安全架构 网络攻击模型 数据库 mysql adb prometheus grafana LLM 大模型面经 大模型 职场和发展 Deepseek 大模型学习 n8n 存储维护 NetApp存储 EMC存储 CosyVoice 虚拟机 AIGC comfyui comfyui教程 网络药理学 生信 分子对接 autodock mgltools PDB PubChem r语言 数据挖掘 数据可视化 数据分析 机器学习 zabbix web3 区块链 区块链项目 快捷键 旋转屏幕 自动操作 服务器安全 网络安全策略 防御服务器攻击 安全威胁和解决方案 程序员博客保护 数据保护 安全最佳实践 ddos 开源 dity make flutter Google pay Apple pay kylin 华为云 华为od 持续部署 jenkins intellij-idea Playwright pythonai PlaywrightMCP 3d golang 算法 游戏引擎 学习 svn 智能路由器 智能合约 压力测试 哈希算法 Linux 维护模式 bash 编辑器 pip Agent llama CrewAI 小程序 自然语言处理 uni-app m3u8 HLS 移动端H5网页 APP安卓苹果ios 监控画面 直播视频流 YOLO 目标检测 rk3588 npu rknn-toolkit2 html http json css DevEco Studio HarmonyOS OpenHarmony 真机调试 ssl springsecurity6 oauth2 授权服务器 前后端分离 git django fastapi 后端 stm32 tcp/ip MVS 海康威视相机 Java进程管理 DevOps自动化 脚本执行 跨平台开发 远程运维 Apache Exec JSch rag ragflow 大模型部署 apache pdf xml gpu算力 onlyoffice 在线office 群晖 低代码 MCP #激光雷达 #览沃 #ubuntu22.04 #ros2 #大疆 AI编程 visual studio code 1024程序员节 单例模式 unity GameFramework HybridCLR Unity编辑器扩展 自动化工具 性能优化 课程设计 负载均衡 unix 网络工程师 华为认证 鸿蒙 混合开发 环境安装 JDK c语言 计算机网络 阿里云 云计算 spring boot spring bug 运维开发 YOLOv8 NPU Atlas800 A300I pro MacMini Mac 迷你主机 mini Apple yolov5 linux环境变量 gnu iot 计算机视觉 opencv kvm qemu libvirt qt linuxdeployqt 打包部署程序 appimagetool ruoyi dash 正则表达式 ESXi Dell HPE 联想 浪潮 其他 nginx chatgpt Kylin-Server 国产操作系统 服务器安装 搜索引擎 程序员 prompt ffmpeg 音视频 视频编解码 Cline 电路仿真 multisim 硬件工程师 硬件工程师学习 电路图 电路分析 仪器仪表 飞牛NAS 飞牛OS MacBook Pro typescript 微信 nvcc cuda A100 GCC crosstool-ng appium 软件测试 自动化测试 功能测试 程序人生 实时音视频 实时互动 爬虫 设计模式 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 redis arm开发 open webui rtsp h.265 vite Svelte fpga开发 AI提示词优化 postgresql pgpool gpt transformer okhttp android mamba 技能大赛 milvus 向量数据库 oceanbase 传统数据库升级 银行 SSH Linux Xterminal uniapp vue CUDA PyTorch aarch64 编译安装 HPC android studio 交互 websocket 银河麒麟 信创国产化 达梦数据库 vmamba 笔记 策略模式 mac mac安装软件 mac卸载软件 mac book deepseek 鲲鹏 昇腾 Qwen3 qwen3 32b vllm 本地部署 #embedding #网络 #dify HTTP 服务器控制 ESP32 DeepSeek MobaXterm 文件传输 神经网络 交换机 硬件 设备 GPU PCI-Express chrome chrome devtools selenium chromedriver mybatis kubernetes k8s rpa searxng 动态库 GCC编译器 -fPIC -shared 三维重建 rpc 远程过程调用 Windows环境 MS Materials ansible playbook 自动化运维 硬件工程 程序 编程 内存 性能分析 大模型压力测试 EvalScope dify dify部署 iventoy VmWare OpenEuler DevOps 大数据 软件交付 数据驱动 应用场景 数据安全 EVE-NG SenseVoice rust 前端 Docker Docker Compose Kubernetes elasticsearch LLM Web APP Streamlit 大模型入门 大模型教程 rc.local 开机自启 systemd 麒麟 vue.js javascript 服务器配置 glibc 远程桌面 鸿蒙系统 hdc 鸿蒙NEXT 数据集 蓝桥杯 springboot容器部署 springboot容器化部署 微服务容器化负载均衡配置 微服务容器多节点部署 微服务多节点部署配置负载均衡 Autoware 辅助驾驶 华为机试 C++ Java Python FunASR ASR 图像处理 嵌入式 linux驱动开发 截图 录屏 gif 工具 进程信号 openjdk 智能体开发 嵌入式Linux IPC SSE 知识图谱 LVS HTTP状态码 客户端错误 服务器端错误 API设计 WSL2 上安装 Ubuntu openssl 流程图 mermaid microsoft coze dubbo Windsurf oracle 关系型 分布式 LLMs GenAI LLM 推理优化 LLM serving node.js Claude Desktop Claude MCP Windows Cli MCP 安全威胁分析 安全性测试 王者荣耀 视频平台 录像 RTSP 视频转发 性能测试 视频流 存储 安全漏洞 信息安全 进程间通信 智能手机 计算机学习路线 编程语言选择 EasyConnect llama3 Chatglm 开源大模型 语音识别 AutoDL Qwen2.5-VL GPU训练 wsl 开发工具 基础指令 指令 计算机外设 openwrt USB网络共享 ui 金融 多线程服务器 Linux网络编程 FTP 服务器 三级等保 服务器审计日志备份 mcu 信息与通信 企业微信 servlet chatbox 监控 UOS 开机自启动 桌面快捷方式 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 #chrome #mac #拓展程序 #禁用 langchain deep learning 相机 cron crontab日志 毕设 硬件架构 系统架构 pycharm 大大通 第三代半导体 碳化硅 科技 Windows ai工具 harmonyOS面试题 YOLOv12 seatunnel pygame rabbitmq vue3 Apache Flume 数据采集 安装部署 配置优化 高级功能 大数据工具集成 工作流自动化工具 bushujiaocheng 部署教程 算家云 AI算力 租算力 到算家云 架构 驱动开发 嵌入式实习 DNS 软件工程 软件构建 安卓模拟器 burpsuite 安全工具 mac安全工具 burp安装教程 渗透工具 arkUI arkTs 多线程 进程 pthread 系统 zephyr QQ bot 政务 分布式系统 监控运维 Prometheus Grafana Docker Hub docker pull 镜像源 daemon.json 主从复制 word openEuler 欧拉系统 #人工智能 #深度学习 #机器学习 #考研 #计算机视觉 MCP server agent C/S 代码调试 ipdb 麒麟OS iNode Macos 操作系统 火绒安全 mybase ragflow 源码启动 Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer 计算生物学 生物信息学 生物信息 基因组 换源 国内源 Debian Kali 渗透 游戏 FTP服务器 maven 个人开发 飞腾处理器 国产化 jvm CH340 串口驱动 CH341 uart 485 webpack Claude Vmamba docker desktop image eureka spring cloud MLLMs VLM gpt-4v #centos #vscode #ubuntu 学习方法 xrdp GIS 遥感 WebGIS 统信 虚拟机安装 opensearch helm elk 信号处理 tcpdump 程序化交易 量化交易 高频交易 yum apt HarmonyOS Next 知识库 Ollama RAGFlow 本地知识库部署 DeepSeek R1 模型 工作流 workflow 本地化部署 ShapeFile GeoJSON Nginx devops 防火墙 ufw nohup 异步执行 stm32项目 kind 环境迁移 jupyter 云服务器 flask web3.py 外网访问 内网穿透 端口映射 游戏服务器 Minecraft Deepseek-R1 私有化部署 推理模型 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 muduo 网络库 hadoop big data 云计算面试题 前端框架 sdkman UEFI Legacy MBR GPT U盘安装操作系统 环境部署 RTX5090 torch2.7.0 flash-attention 报错 安装MySQL 小智 百度 paddlepaddle 集成学习 集成测试 系统安全 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 visualstudio HCIE 数通 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 微信开放平台 微信公众平台 微信公众号配置 matlab element-ui 上传视频并预览视频 vue上传本地视频及进度条功能 vue2选择视频上传到服务器 upload上传视频组件插件 批量上传视频 限制单个上传视频 mariadb latex vim list gitee 缓存 线程 网页服务器 web服务器 镜像 ACL 流量控制 基本ACL 网络管理 规则配置 iBMC UltraISO 雨云 NPS NAS Termux Samba tidb GLIBC windows 服务器安装 Chatbox glm4 gitee go 计算机系统 网络编程 wsl2 Cursor 电子信息 通信工程 毕业 chromium dpi arcgis gitlab SecureCRT Bug解决 Qt platform OpenCV 华为鸿蒙系统 ArkTS语言 Component 生命周期 条件渲染 Image图片组件 ros 树莓派项目 网络结构图 yaml Ultralytics 可视化 测试工具 程序员创富 微服务 数据结构 电脑 gcc centos 7 卷积神经网络 fiddler 物理地址 页表 虚拟地址 考研 开源软件 H3C arm IMM RAID RAID技术 磁盘 open Euler dde deepin 统信UOS 统信操作系统 triton 模型分析 UOS1070e webrtc 话题通信 服务通信 Spring AI 大模型应用开发 AI 应用商业化 软件需求 cmake nvm node 环境配置 eclipse IPv4/IPv6双栈 双栈技术 网路规划设计 ensp综合实验 IPv4过渡IPv6 IPv4与IPv6 RAG Multi-Agent 常用命令 文本命令 目录命令 https 反向代理 智能硬件 sql 游戏程序 grub 版本升级 扩容 jar 服务器扩容没有扩容成功 Pyppeteer umeditor粘贴word ueditor粘贴word ueditor复制word ueditor上传word图片 抽象工厂模式 trae embedding nftables vmware cursor 烟雾检测 yolo检测 消防检测 线程互斥与同步 RustDesk自建服务器 rustdesk服务器 docker rustdesk Dell R750XS mcp mcp协议 go-zero mcp服务器 #服务器 sequoiaDB RockyLinux paddle react.js #IntelliJ IDEA #Java #Kotlin 远程 命令 执行 sshpass 操作 rnn perl 抓包工具 自定义客户端 SAS 宝塔面板 HP Anyware ftp服务 文件上传 PyQt PySide6 NVML nvidia-smi vmware tools VMware 生成对抗网络 gemini gemini国内访问 gemini api gemini中转搭建 Cloudflare cudnn nvidia maxkb ARG archlinux kde plasma 迁移 openeuler #服务器 #c语言 #git #vim yolov8 Linux Vim docker compose 终端工具 远程工具 Alist rclone mount 挂载 网盘 论文笔记 记账软件 springboot 容器部署 udp 框架搭建 密码学 rust腐蚀 弹性计算 裸金属服务器 弹性裸金属服务器 虚拟化 树莓派 Navidrome ipython NFS 我的世界服务器搭建 minecraft 5G 产品经理 代码复审 codereview code-review 腾讯云大模型知识引擎 nac 802.1 portal can 线程池 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 k8s部署 MySQL8.0 高可用集群(1主2从) deepseek-v3 ktransformers RagFlow VSCode 漏洞 我的世界 我的世界联机 数码 MQTT mosquitto 消息队列 postman AI-native 7-zip 矩阵乘法 3D深度学习 ip 重启 排查 系统重启 日志 原因 虚拟显示器 远程控制 burp suite 抓包 Obsidian Dataview libreoffice word转pdf 安装 模块测试 文档 lvgl8.3 lvgl9.2 lvgl lvgl安装 #算法 #数据清洗 virtualenv ecmascript KVM 网络建设与运维 网络搭建 神州数码 神州数码云平台 云平台 性能调优 安全代理 PX4 GPUGEEK 代理模式 物联网开发 ESP32 KylinV10 麒麟操作系统 Vmware html5 less hive ranger MySQL8.0 jmeter 源代码管理 #c++ ArkTs ArkUI CPU 使用率 系统监控工具 linux 命令 jellyfin nas python2 隐藏文件 实时内核 rocketmq ollama api ollama外网访问 IP地址 IPv4 IPv6 端口号 计算机基础 shell FS 文件系统 bootfs rootfs linux目录 DocFlow etcd cfssl 前端面试题 go ISO镜像作为本地源 ukui 麒麟kylinos 分布式账本 信任链 共识算法 rsync bigdata 微信小程序 notepad++ 性能监控 Uvicorn 数学建模 ROS2 stable diffusion AI作画 g++ g++13 iTerm2 sqlserver 打不开xxx软件 无法检查其是否包含恶意软件 Kali Linux 虚拟局域网 LSTM dns是什么 如何设置电脑dns dns应该如何设置 C语言 升级 CVE-2024-7347 odoo 服务器动作 Server action 僵尸世界大战 游戏服务器搭建 豆瓣 追剧助手 迅雷 adobe thingsboard midjourney AI写作 ECS API 状态模式 源码 毕业设计 zookeeper easyTier 组网 开发环境 微软 鸿蒙项目 eNSP 企业网络规划 华为eNSP 网络规划 拓扑图 人工智能生成内容 ip命令 新增网卡 新增IP 启动网卡 文心一言 Mermaid 可视化图表 自动化生成 jdk postgres Docker Desktop Dify重启后重新初始化 kubeless 软考设计师 中级设计师 SQL 软件设计师 计算机八股 Trae IDE AI 原生集成开发环境 Trae AI 大模型微调 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 分布式训练 CDN 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 Netty OpenGL 图形渲染 若依 内存不足 outofmemory Key exchange 主包过大 进程控制 xcode cocoapods MacOS 向日葵 notepad 渗透测试 vnc ShenTong Logstash 日志采集 miniapp 调试 debug 断点 网络API请求调试方法 kali 共享文件夹 显卡驱动持久化 GPU持久化 创业创新 面试 健康医疗 仙盟大衍灵机 东方仙盟 仙盟创梦IDE 云电竞 云电脑 单一职责原则 express CORS 跨域 音乐服务器 音流 无桌面 命令行 kafka 云服务 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 p2p ios AI员工 CPU架构 服务器cpu 开发效率 Windmill struts 物联网嵌入式开发实训室 物联网实训室 嵌入式开发实训室 物联网应用技术专业实训室 ArcTS 登录 ArcUI GridItem 命名管道 客户端与服务端通信 anaconda protobuf 序列化和反序列化 安装教程 GPU环境配置 Ubuntu22 Anaconda安装 系统内核 Linux版本 kernel function address 函数 地址 内核 #字体 #安装 #微软雅黑 #office minicom 串口调试工具 网络用户购物行为分析可视化平台 大数据毕业设计 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos seleium WSL zip unzip edge rdp 远程服务 STP 生成树协议 PVST RSTP MSTP 防环路 网络基础 unionFS OverlayFS OCI docker架构 写时复制 服务器繁忙 网工 tailscale derp derper 中转 bonding 链路聚合 黑客 计算机 网站搭建 serv00 博客 媒体 Jellyfin .netcore .net core .net NFC 近场通讯 智能门锁 aws Python 视频爬取教程 Python 视频爬取 Python教程 Python 视频教程 客户端-服务器架构 点对点网络 服务协议 网络虚拟化 网络安全防御 桌面环境 电脑桌面出现linux图标 电脑桌面linux图标删除不了 电脑桌面Liunx图标删不掉 linux图标删不掉 miniconda yum换源 NVIDIA显卡安装 Ubuntu开机黑屏 TRAE 车载系统 DBeaver 数据仓库 kerberos mcp-proxy mcp-inspector fastapi-mcp sse yum源切换 更换国内yum源 增强现实 沉浸式体验 技术实现 案例分析 AR ros2 moveit 机器人运动 云原生开发 接口优化 k8s二次开发 宝塔面板无法访问 计算机科学与技术 网卡 网络爬虫 Crawlee nohup后台启动 perf 大语言模型 lstm LSTM-SVM 时间序列预测 pppoe radius 技术 css3 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 大模型推理 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 IM即时通讯 剪切板对通 HTML FORMAT 虚幻 python3.11 pyside6 界面 LangGraph CLI JavaScript langgraph.json #开发语言 C 环境变量 进程地址空间 centos-root /dev/mapper yum clean all df -h / du -sh 京东云 鸿蒙开发 移动开发 ubuntu20.04 开机黑屏 linux内核 gpt-3 Ubuntu 22.04 MySql 算力租赁 Charles 软件商店 信创 livecd systemtools OpenSSH 监控k8s集群 集群内prometheus 脚本 autoware gru lvs Agentic Web NLWeb 自然语言网络 微软build大会 issue 局域网 Docker 部署es9 Docker部署es Docker搭建es9 Elasticsearch9 Docker搭建es 实验 v10 软件 dell服务器 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 PVE minio 银河麒麟高级服务器 外接硬盘 Kylin 聊天室 gaussdb 致远OA OA服务器 服务器磁盘扩容 剧本 outlook saltstack 机柜 1U 2U Featurize Mobilenet 分割 灵办AI 稳定性 看门狗 fstab Echarts图表 折线图 柱状图 异步动态数据 可视化效果 mac设置host ArkTS js Android ANDROID_HOME zshrc 更换镜像源 tftp nfs homebrew windows转mac ssh密匙 Mac配brew环境变量 gstreamer 流媒体 HP打印机 AI代码编辑器 Open WebUI 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 ip协议 opengl tar 卸载 列表 超级终端 多任务操作 提高工作效率 切换root Quixel Fab Unity UE5 游戏商城 虚幻引擎 spark HistoryServer Spark YARN jobhistory armbian u-boot react next.js 部署next.js rustdesk 文件分享 WebDAV 游戏开发 SWAT 配置文件 服务管理 网络共享 腾讯云 图形化界面 React Next.js 开源框架 aac neo4j 数据库开发 database Ardupilot Ubuntu20.04 2.35 vsxsrv 深度求索 私域 3GPP 卫星通信 单元测试 测试用例 WSL2 Typore 7z ubuntu安装 linux入门小白 android-studio ajax 数据链路层 #自动化 SSL证书 tcp unity3d 数据库系统 Headless Linux 信息收集 nuxt3 Anolis nginx安装 linux插件下载 状态管理的 UDP 服务器 Arduino RTOS asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 llama.cpp 锁屏不生效 显示器 日志分析 系统取证 商用密码产品体系 localhost janus cn2 带宽 ArtTS 系统开发 binder framework 源码环境 docker-compose 华为证书 HarmonyOS认证 华为证书考试 resolv.conf 药品管理 团队开发 SSH 服务 SSH Server OpenSSH Server excel PPI String Cytoscape CytoHubba 监控k8s 监控kubernetes mongodb 开放端口 访问列表 Masshunter 质谱采集分析软件 使用教程 科研软件 冯诺依曼体系 Typescript 二级页表 #redis AD域 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 autodl 即时通信 NIO dba 客户端 java-ee AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 massa sui aptos sei fpga linux cpu负载异常 SRS flink DICOM Qwen2.5-coder 离线部署 c/c++ 串口 进程优先级 调度队列 进程切换 openvpn server openvpn配置教程 centos安装openvpn initramfs Linux内核 Grub 星河版 磁盘挂载 新盘添加 partedUtil SystemV charles 鸿蒙面试 面试题 自动化任务管理 x64 SIGSEGV xmm0 Xinference rime numpy 宝塔 OpenManus 私有化 powerpoint 5090 显卡 AI性能 CAN 多总线 嵌入式实时数据库 authorized_keys 密钥 网络配置 路由配置 gitea frp 内网服务器 内网代理 内网通信 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 计算虚拟化 弹性裸金属 模拟退火算法 网络穿透 firefox LDAP AD 域管理 硅基流动 ChatBox 录音麦克风权限判断检测 录音功能 录音文件mp3播放 小程序实现录音及播放功能 RecorderManager 解决录音报错播放没声音问题 大模型训练/推理 推理问题 mindie linq sqlite Cache Aside Read/Write Write Behind 材料工程 全文检索 服务发现 make命令 makefile文件 iftop 网络流量监控 版本 NVM Node Yarn PM2 IP 地址 热榜 ubuntu24.04.1 openstack Xen Hyper-V Linux24.04 路径解析 ue4 着色器 ue5 Node-Red 编程工具 流编程 deekseek intellij idea top Linux top top命令详解 top命令重点 top常用参数 Apache Beam 批流统一 案例展示 数据分区 容错机制 Xshell 转换 写时拷贝 Linux的进程调度队列 活动队列 模拟器 pnet pnetlab 去中心化 xop RTP RTSPServer 推流 视频 pillow 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 模型联网 CherryStudio rsyslog 直播推流 iis 毕昇JDK 浪潮信息 AI服务器 笔灵AI AI工具 gunicorn web lua 过期连接 flinkcdc mcp client mcp server 模型上下文协议 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 edge浏览器 prometheus数据采集 prometheus数据模型 prometheus特点 智慧农业 开源鸿蒙 动静态库 brew swift npm orbslam2 ubuntu22.04 RAGflow 管道 pipe函数 匿名管道 管道的大小 匿名管道的四种情况 北亚数据恢复 数据恢复 服务器数据恢复 数据库数据恢复 oracle数据恢复 上架 互联网医院 firewalld vr RBAC easyui 设置代理 实用教程 RDP nacos Apache OpenNLP 句子检测 分词 词性标注 核心指代解析 Spring Boot es MySQL csapp 缓冲区 cpu 实时 使用 pyqt 磁盘监控 api X11 Xming 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 db 信创终端 中科方德 es6 qt6.3 g726 实时传输 AudioLM scrapy #提示词注入 #防护 #安全 #大模型 Hive环境搭建 hive3环境 Hive远程模式 沙盒 kotlin iphone 代码 对比 meld Beyond Compare DiffMerge pycharm安装 harmonyosnext illustrator podman #pytorch VLAN 企业网络 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 卡死 gromacs 分子动力学模拟 MD 动力学模拟 cnn VGG网络 卷积层 池化层 LVM 磁盘分区 lvresize 磁盘扩容 pvcreate client-go 裸机装机 linux磁盘分区 裸机安装linux 裸机安装ubuntu 裸机安装kali 裸机 文件共享 企业风控系统 互联网反欺诈 DDoS攻击 SQL注入攻击 恶意软件和病毒攻击 Linux权限 xshell 权限掩码 粘滞位 pandas matplotlib 进程状态 僵尸进程 lsof linux命令 #运维 #openssh升级 #银河麒麟V10 SP10 项目部署到linux服务器 项目部署过程 samba YashanDB 崖山数据库 yashandb logstash 概率论 串口服务器 万物互联 工业自动化 工厂改造 teamspeak SFTP SFTP服务端 零售 fd 文件描述符 beautifulsoup 苹果电脑装windows系统 mac安装windows系统 mac装双系统 macbook安装win10双 mac安装win10双系统 苹果电脑上安装双系统 mac air安装win 进程等待 内存泄漏 更新apt 安装hadoop前的准备工作 空Ability示例项目 讲解 办公自动化 pdf教程 Python基础 Python技巧 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 Reactor 显示过滤器 ICMP Wireshark安装 DeepSeek r1 大屏端 图搜索算法 考试 软考 MAVROS 四旋翼无人机 OS NVIDIA 可用性测试 risc-v 量子计算 CKA 数字化转型 shell编程 kylin v10 麒麟 v10 dns 服务器管理 配置教程 网站管理 云桌面 AD域控 证书服务器 Carla solidworks安装 华为昇腾910b3 finebi gitlab服务器 网络接口 时间间隔 所有接口 多网口 显卡驱动 nvidia驱动 Tesla显卡 深度优先 滑动验证码 反爬虫 cs144 接口隔离原则 高考 省份 年份 分数线 数据 log4j 邮件APP 免费软件 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 Ubuntu共享文件夹 共享目录 Linux共享文件夹 网络文件系统 pyicu 推荐算法 milvus安装 vm dnf linux/cmake 数码相机 全景相机 设备选择 实用技巧 数字空间 软硬链接 文件 iperf3 带宽测试 mq System V共享内存 进程通信 Helm k8s集群 ros1 Noetic 20.04 apt 安装 蓝牙 隐藏目录 管理器 通配符 百度云 智能体 深度强化学习 深度Q网络 Q_Learning 经验回收 双系统 多系统 Nginx报错413 Request Entity Too Large 的客户端请求体限制 驱动器映射 批量映射 win32wnet模块 网络驱动器映射工具 汇编 sse_starlette Starlette FastAPI Server-Sent Eve 服务器推送事件 #java #maven #java-ee #spring boot #jvm #kafka #tomcat 直播 流式接口 TrinityCore 魔兽世界 TCP服务器 qt项目 qt项目实战 qt教程 mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 大数据平台 XCC Lenovo Web服务器 多线程下载工具 PYTHON OSB Oracle中间件 SOA MultiServerMCPC load_mcp_tools load_mcp_prompt ueditor导入word 客户端/服务器架构 分布式应用 三层架构 Web应用 跨平台兼容性 排序算法 前端项目部署 微前端 uni-popup报错 连接服务器超时 点击屏幕重试 uniapp编译报错 uniapp vue3 imported module TypeError HarmonyOS5 黑苹果 sonoma 自动更新 VMware安装mocOS macOS系统安装 本地部署AI大模型 mysql安装报错 windows拒绝安装 termux 环境搭建 chrome历史版本下载 chrominum下载 调试方法 Valgrind 内存分析工具 离线部署dify 实习 视觉检测 QT 5.12.12 QT开发环境 Ubuntu18.04 DenseNet docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 2024 2024年上半年 下午真题 答案 WireGuard 异地组网 IO 线程同步 线程互斥 条件变量 进程池实现 Jenkins流水线 声明式流水线 软件安装 分类 dataworks maxcompute 弹性 #llama #docker #kimi oneapi echarts 信息可视化 网页设计 nextjs reactjs ecm bpm token sas 思科模拟器 思科 Cisco ECS服务器 漫展 SQI iOS Server Trust Authentication Challenge TCP 多进程 TCP回显服务器 VMware安装Ubuntu Ubuntu安装k8s Linux的基础指令 HiCar CarLife+ CarPlay QT RK3588 Mac内存不够用怎么办 软链接 硬链接 大版本升 升级Ubuntu系统 CUPS 打印机 Qt5 可执行程序 csrf Metastore Catalog JAVA uni-app x 进程程序替换 execl函数 execv函数 execvp函数 execvpe函数 putenv函数 vr看房 在线看房系统 房产营销 房产经济 三维空间 libtorch pyautogui P2P HDLC docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 自动化编程 RAGFLOW 读写锁 Zoertier 内网组网 compose webview 漏洞报告生成 BCLinux Linux系统编程 冯诺依曼体系结构 BMS 储能 pytorch3d CPU Invalid Host allowedHosts IIS Hosting Bundle .NET Framework vs2022 audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 银河麒麟桌面操作系统 Kylin OS 远程看看 远程协助 BMC 带外管理 asm MQTT协议 消息服务器 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 vu大文件秒传跨域报错cors lighttpd安装 Ubuntu配置 Windows安装 服务器优化 服务器ssl异常解决 CNNs 图像分类 框架 socket 证书 签名 大学大模型可视化教学 全球气象可视化 大学气象可视化 JavaWeb 回显服务器 Echo 教程 deepseek r1 ci/cd 用户缓冲区 支付 微信支付 开放平台 设备树 Linux find grep 免密 公钥 私钥 OpenCore 权限 powerbi devmem cuda驱动 debezium 数据变更 数据迁移 VUE Mysql openssh sublime text 金仓数据库 2025 征文 数据库平替用金仓 bat qt5 客户端开发 Alexnet qps 高并发 Isaac Sim 虚拟仿真 GRE Reactor反应堆 开发 Makefile Make 客户端和服务器端 TraeAgent #apache #flink c EMQX 通信协议 Ubuntu 24.04.1 轻量级服务器 windows日志 kamailio sip VoIP WebRTC IIS服务器 IIS性能 日志监控 联想开天P90Z装win10 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 netty 飞牛 client close 规格说明书 设计规范 http状态码 请求协议 ftp 相机标定 观察者模式 HTTP3 全双工通信 多路复用 实时数据传输 中兴光猫 换光猫 网络桥接 自己换光猫 bcompare 键盘 ruby photoshop SPI 源码软件 electron docker run 数据卷挂载 交互模式 运维监控 GeneCards OMIM TTD rtc axure 轮播图 学习路线 LLaMA-Factory NLP python高级编程 Ansible elk stack AOD-PONO-Net 图像去雾技术 MinerU 机器人操作系统 容器化 mysql 8 mysql 8 忘记密码 做raid 装系统 Flask Waitress Gunicorn uWSGI freebsd 半虚拟化 硬件虚拟化 Hypervisor ABAP VNC 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? 上传视频文件到服务器 uniApp本地上传视频并预览 uniapp移动端h5网页 uniapp微信小程序上传视频 uniapp app端视频上传 uniapp uview组件库 联机 僵尸毁灭工程 游戏联机 开服 Webserver 异步 pxe 科勘海洋 数据采集浮标 浮标数据采集模块 jvm调优 LRU策略 内存增长 垃圾回收 MAC 泰山派 根文件系统 Linux的进程控制 编译器 #华为 #harmonyos #手机 composer camera Arduino 输入法 Linux的进程概念 Playwright MCP 自动化测试框架 重构 飞书 #python #信息可视化 #大数据 #python #毕业设计 #Hadoop #SPark #数据挖掘 ocr 孤岛惊魂4 黑客技术 ldap 智能音箱 智能家居 音乐库 RK3568 PTrade QMT 量化股票 全栈 raid proto actor actor model Actor 模型 英语六级 加密 #游戏 #云计算 mysql离线安装 mysql8.0 USB转串口 AList webdav fnOS 英语 Maven export env 变量 STL 编译 烧录 visual studio Ubuntu22.04 美食 根目录 #apache 蓝耘科技 元生代平台工作流 ComfyUI IMX317 MIPI H265 VCU 论文阅读 AzureDataStudio LInux VMware Tools vmware tools安装 vmwaretools安装步骤 vmwaretools安装失败 vmware tool安装步骤 vm tools安装步骤 vm tools安装后不能拖 vmware tools安装步骤 autogen openai VM虚拟机 d3d12 蜂窝网络 频率复用 射频单元 无线协议接口RAN 主同步信号PSS Serverless 内存管理 电子器件 二极管 三极管 青少年编程 编程与数学 c盘 磁盘清理 gin UDP的API使用 zotero 同步失败 DeepSeek-R1 API接口 DeepSeek行业应用 Heroku 网站部署 银河麒麟操作系统 swoole uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 OD机试真题 华为OD机试真题 服务器能耗统计 阿里云ECS 内网渗透 靶机渗透 工厂方法模式 电子信息工程 Lenovo System X GNOME Scoket 套接字 blender three.js 数字孪生 笔记本电脑 Ubuntu Server Ubuntu 22.04.5 Redis Desktop conda配置 conda镜像源 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 csrutil mac恢复模式进入方法 恢复模式 grep firewall tar.gz tar.xz linux压缩 direct12 Mac部署 Ollama模型 Openwebui 配置教程 AI模型 PATH 命令行参数 main的三个参数 react Native 实战项目 入门 精通 MAC地址 #数据库 ssh远程登录 springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 lio-sam SLAM ceph virtualbox 输入系统 4 - 分布式通信、分布式张量 软路由 Arduino下载开发板 esp32开发板 esp32-s3 开启关闭防火墙 WebFuture #python3.11 #YOLO #目标检测 #YOLOv13 vscode1.86 1.86版本 ssh远程连接 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 gateway Clion Nova ResharperC++引擎 Centos7 远程开发 端口测试 镜像下载 跨域请求 免费 mvc 零日漏洞 CVE 决策树 医药 医疗APP开发 app开发 检索增强生成 文档解析 大模型垂直应用 Linux PID 开发人员主页 GKI KMI 机床 仿真 课件 虚拟现实 教学 课程 iptables #tomcat #架构 #servlet linux安装配置 免费域名 域名解析 rancher Doris搭建 docker搭建Doris Doris搭建过程 linux搭建Doris Doris搭建详细步骤 Doris部署 命令模式 桥接模式 windows虚拟机 虚拟机联网 web环境 本地知识库 思科实验 高级网络互联 链表 vasp安装 服务器时间 live555 源码剖析 rtsp实现步骤 流媒体开发 银河麒麟服务器操作系统 系统激活 wsgiref Web 服务器网关接口 LORA 智能电视 配置原理 pyscenic 生信教程 多端开发 智慧分发 应用生态 鸿蒙OS 小游戏 五子棋 移动端开发 CTE AGE bpf bpfjit pcap AnythingLLM AnythingLLM安装 curl wget 聚类 目标跟踪 OpenVINO 推理应用 大模型技术 本地部署大模型 K8S k8s管理系统 电脑操作 wpf dsp开发 文件权限 muduo库 打包工具 dnn 磁盘满 laravel file server http server web server java-rocketmq DELL R730XD维修 全国服务器故障维修 多媒体 网络带宽 问题排查 服务器租用 物理机 IP配置 netplan 热键 linux常用命令 uboot 部署方案 IMX6ULL GoogLeNet Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 Sealos copilot 图片增强 增强数据 服务注册与发现 DrissionPage 服务 SSM 项目实战 页面放行 迭代器模式 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 充电桩 欧标 OCPP 动态规划 机架式服务器 1U工控机 国产工控机 cocos2d 3dcoat 教育电商 GPU状态 网络IO 队列 数据库占用空间 华为OD机考 机考真题 需要广播的服务器数量 SPP 嵌入式系统开发 shell脚本免交互 expect linux免交互 一切皆文件 数据库管理 mac cocoapods macos cocoapods octomap_server 苹果 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 WebVM post.io 企业邮箱 搭建邮箱 本地环回 bind SoC 原子操作 AXI vb #adb #数据库开发 #mysql #sql VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 VPS DOIT 四博智联 温湿度数据上传到服务器 Arduino HTTP C# MQTTS 双向认证 emqx nosql 网站 deepseek-r1 大模型本地部署 java-zookeeper openvino 信号 win向maOS迁移数据 I/O 设备管理 国产数据库 瀚高数据库 下载安装 import save load 迁移镜像 netlink libnl3 su sudo sudo原理 su切换 finalsheel llamafactory 微调 Qwen xfce time时间函数 #bright data 网卡的名称修改 eth0 ens33 ping++ junit googlecloud ardunio BLE 主板 电源 deepseak 豆包 KIMI 腾讯元宝 金仓数据库概述 金仓数据库的产品优化提案 文件存储服务器组件 宠物 免费学习 宠物领养 宠物平台 支持向量机 Putty 花生壳 匿名FTP 邮件传输代理 SSL支持 chroot监狱技术 进度条 序列化反序列化 keepalived 代理服务器 权限命令 特殊权限 sublime text3 图文教程 VMware虚拟机 macOS系统安装教程 macOS最新版 虚拟机安装macOS Sequoia 容器清理 大文件清理 空间清理 单用户模式 进程创建 进程退出 端口 原创作者 #数据结构 #c++ #链表 #笔记 问题解决 自学笔记 小米 澎湃OS redhat 电视剧收视率分析与可视化平台 富文本编辑器 scapy 集成 PCB fork 进程管理 #大数据 个人博客 ssrf 失效的访问控制 hibernate asp.net大文件上传下载 W5500 OLED u8g2 VMware创建虚拟机 EtherCAT转Modbus EtherCAT转485网关 ECT转485串口服务器 ECT转Modbus485协议 ECT转Modbus串口网关 ECT转Modbus串口服务器 软件开发 三次握手 建站 磁盘IO iostat 快速入门 VR手套 数据手套 动捕手套 动捕数据手套 分析解读 cmos 用户管理 高德地图 鸿蒙接入高德地图 HarmonyOS5.0 导航栏 PostgreSQL15数据库 elementui 若依框架 vscode-server ubuntu18.04 抗锯齿 telnet 远程登录 能效分析 图论 coze扣子 AI口播视频 飞影数字人 coze实战 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 聊天服务器 Socket hugo 小智AI服务端 xiaozhi TTS 网络原理 vCenter服务器 ESXi主机 监控与管理 故障排除 日志记录 web开发 惠普服务器 惠普ML310e Gen8 惠普ML310e Gen8V2 鼠标 基础入门 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 基础环境 Cookie diskgenius systemctl Python学习 Python编程 Unlocker 影刀 #影刀RPA# CentOS ubuntu24 vivado24 deployment daemonset statefulset cronjob 源代码 nano proxy_pass TiDB测试集群 2025一带一路金砖国家 金砖国家技能大赛 技能发展与技术创新大赛 首届网络系统虚拟化管理与运维 比赛样题 #n8n #n8n工作流 #n8n教程 #n8n本地部署 #n8n自动化工作流 #n8n使用教程 #n8n工作流实战案例 阻塞队列 生产者消费者模型 服务器崩坏原因 游戏机 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 Dedicated Host Client 无头主机 服务器主板 AI芯片 skynet banner 服务器部署 本地拉取打包 Qualcomm WoS QNN AppBuilder 券商 股票交易接口api 类型 特点 股票量化接口 股票API接口 腾讯云服务器 轻量应用服务器 linux系统入门 asp.net messages dmesg 粘包问题 EMUI 回退 降级 jdk11安装 jdk安装 openjdk11 openjdk11安装 分布式总线 杂质 leetcode efficientVIT YOLOv8替换主干网络 TOLOv8 流水线 脚本式流水线 飞牛nas fnos 钉钉 工具分享 ROS1/ROS2 dockerfile Wayland 麒麟kos 网络检测 ping #debian UDP 移动云 vSphere vCenter 大文件秒传跨域报错cors DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 创意 社区 西门子PLC 通讯 代码托管服务 Web应用服务器 弹性服务器 bootstrap RustDesk 搭建服务器 高级IO epoll wait waitpid exit 体验鸿蒙电脑操作系统 Windows电脑能装鸿蒙吗 Linux环境 TCP协议 烟花代码 烟花 元旦 软负载 并查集 NLP模型 IPv6测试 IPv6测速 IPv6检测 IPv6查询 linux子系统 忘记密码 registries 搜狗输入法 中文输入法 回归 ipv6 光猫设置 路由器设置 openGauss SVN Server tortoise svn code-server 同步 备份 Spring Security 备选 调用 示例 能力提升 面试宝典 IT信息化 VS Code gradle 大厂程序员 硅基计算 碳基计算 认知计算 生物计算 AGI 系统架构设计 软件哲学 程序员实现财富自由 slave bug定位 缺陷管理 材质 贴图 支付宝小程序 云开发 Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 trea idea lvm MDK 嵌入式开发工具 Maxkb RAG技术 cpolar GRANT REVOKE ebpf #DevEco Studio #HarmonyOS Next 多路转接 SSH 密钥生成 SSH 公钥 私钥 生成 k8s集群资源管理 实战案例 高可用 HBase分布式集群 HBase环境搭建 HBase安装 HBase完全分布式环境 network NetworkManager 人工智能作画 MNN MI300x 显示管理器 lightdm gdm Erlang OTP gen_server 热代码交换 事务语义 算力 干货分享 黑客工具 密码爆破 数字证书 签署证书 站群服务器 MQTT Broker GMQT 访问公司内网 服务网格 istio uv Linux的权限 Linux的基础开发工具 java毕业设计 微信小程序医院预约挂号 医院预约 医院预约挂号 小程序挂号 C/C++ 桶装水小程序 在线下单送水小程序源码 桶装水送货上门小程序 送水小程序 订水线上商城 程序地址空间 云盘 安全组 pi0 lerobot aloha act #VMware #虚拟机 jina 产测工具框架 管理框架 浏览器开发 AI浏览器 GRUB引导 Linux技巧 lb 协议 Docker快速入门 anythingllm open-webui docker国内镜像 BitTorrent 搜索 简单工厂模式 huggingface pavucontrol 蓝牙耳机 #stm32 #单片机 #freeRTOS #php 并集查找 换根法 树上倍增 iDRAC R720xd 加解密 Yakit yaklang IDEA 像素流送api 像素流送UE4 像素流送卡顿 像素流送并发支持 蓝桥杯C++组 错误代码2603 无网络连接 2603 华为OD 可以组成网络的服务器 ueditor导入pdf ueditor导入ppt AWS 环境 非root 光电器件 LED MateBook js逆向 alphafold3 #vscode #编辑器 #ide #AI #MCP termius iterm2 Tabs组件 TabContent TabBar TabsController 导航页签栏 滚动导航栏 AppLinking 应用间跳转 时序数据库 iotdb cd 目录切换 WebUI DeepSeek V3 容器技术 通用环境搭建 openresty WIFI7 无线射频 高通 射频校准 射频调试 射频匹配 #经验分享 #kubernetes #数据结构 NAT转发 NAT Server WinRM TrustedHosts XFS xfs文件系统损坏 I_O error 雨云服务器 行情服务器 股票交易 速度慢 切换 qwen2vl 雾锁王国 算法协商 故障排查 Web测试 pve #阿里云 #ai #AI编程 捆绑 链接 谷歌浏览器 youtube google gmail HarmonyOS NEXT 原生鸿蒙 软件卸载 系统清理 vpn DIFY 多产物 Bandizip Mac解压 Mac压缩 压缩菜单 影视app 文件清理 线程安全 webgis cesium 应急响应 CTF EulerOS 版本对应 Linux 发行版 企业级操作系统 RHEL 开源社区 南向开发 北向开发 CAN总线 子网掩码 公网IP 私有IP AI Agent 字节智能运维 solr MinIO 手机 mcp-server rtsp转rtmp 海康rtsp转rtmp 摄像头rtsp到rtmp rtsp转发 rtsp摄像头转rtmp rtsp2rtmp #爬虫 Radius webstorm opcua opcda KEPServer安装 RTMP 应用层 AI agent 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 流量运营 繁忙 解决办法 替代网站 汇总推荐 AI推理 caddy 事件驱动 自定义登录信息展示 motd 美化登录 实时云渲染 云渲染 3D推流 MCP 服务器 JADX-AI 插件 视频服务器 软件高CPU占用 ProcessExplorer Process Hacker System Informer Windbg 线程的函数调用堆栈 小艺 Pura X macOS 子系统 wifi驱动 CodeBuddy首席试玩官 系统完整性 越狱设备 Termius Vultr 远程服务器 HDC2025 HarmonyOS 6 #mobaxterm #termius #electerm #tabby #termcc 机械臂 nacos容器环境变量 docker启动nacos参数 nacos镜像下载 NAT #openssh rtp 根服务器 多个客户端访问 IO多路复用 TCP相关API ECT转Modbus协议 EtherCAT转485协议 ECT转Modbus网关 WebServer oracle fusion oracle中间件 zerotier 负载测试 c/s rtmp eventfd 高性能 国产芯片 视频直播物理服务器租用 物理服务器 物理机租用 #合成孔径雷达 #GAMMA #InSAR alias unalias 别名 微信分享 Image wxopensdk 多层架构 解耦 safari 查看显卡进程 fuser 终端 retry 重试机制 空间 查错 互联网实用编程指南 ps命令 时间轮 Navigation 路由跳转 鸿蒙官方推荐方式 鸿蒙原生开发 路径规划 CKEditor5 分布式锁 MVVM 鸿蒙5.0 备忘录应用 #nacos CLion 静态IP Web3 Telegram fabric ICMPv6 docker安装mysql win下载mysql镜像 mysql基本操作 docker登陆私仓 docker容器 deepseek与mysql AI控制浏览器 Browser user dockercompose安装 compose.yml文件详解 dockercompose使用 #chrome #database #macos #电脑上不了网 #IP设置 #网卡驱动 #路由器设置 #wifi设置 #网络防火墙 #无法连接到这个网络 asi_bench 需求分析 SEO sqlite3 技术共享 浏览器自动化 矩池云 数据下载 数据传输 access blocked 破解 anonymous 独立服务器 Windows 11 重装电脑系统 Java 日志框架 Log4j2 Logback SLF4J 结构化日志 企业级应用 BIO Java socket Java BIO Java NIO Java 网络编程 集群 科研绘图 生信服务器 tengine web负载均衡 WAF proteus 元服务 应用上架 MacOS录屏软件 CentOS Stream fonts-noto-cjk 跨平台 nmcli 系统升级 16.04 ai编程 #技能认证 #分区 #ansible #role #galaxy #ansible-galaxy k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm selete 解决方案 知行EDI 电子数据交换 知行之桥 EDI 红黑树封装map和set 恒玄BES 触觉传感器 GelSight GelSightMini GelSight触觉传感器 Cilium requests python库 机床主轴 热误差补偿 风电齿轮箱 故障诊断 物理-数据融合 预测性维护 #udp #网络通信 #网络协议 #Socket #计算机网络 #tcp/ip win11 无法解析服务器的名称或地址 SSL 域名 社交电子 直流充电桩 服务器部署ai模型 KingBase clickhouse 互信 VPN wireguard AimRT Qt QModbus accept ESP8266简单API服务器 Arduino JSON cordova 跨域开发 #飞算Java炫技赛 #Java开发 webgl regedit 开机启动 Attention 底层实现 Linux指令 Windows应急响应 webshell 网络攻击防御 网络攻击 学习笔记 HarmonyOS 5开发环境 CUDA Toolkit 对话框showDialog showActionMenu 操作列表ActionSheet CustomDialog 文本滑动选择器弹窗 消息提示框 警告弹窗 FreeLearning 嵌入式软件 RTOS PDF 图片 表格 文档扫描 发票扫描 IO模型 代理 docker部署Python 李心怡 dock 加速 达梦 DM8 网易邮箱大师 containerd 物理层 进程操作 理解进程 #mcp #浏览器自动化 #安全 #nginx #web安全 #gpt #chatgpt 软件定义数据中心 sddc IPMITOOL 硬件管理 架构与原理 工业4.0 域名服务 DHCP 符号链接 配置 代码规范 OpenManage vue在线预览excel和编辑 vue2打开解析xls电子表格 浏览器新开页签或弹框内加载预览 文件url地址或接口二进制文档 解决网页打不开白屏报错问题 流量 aiohttp asyncio AI导航站 zipkin funasr asr 语音转文字 cangjie webserver springcloud Ark-TS语言 模拟实现 历史版本 下载 玩游戏 提示词 ubantu tvm安装 深度学习编译器 云解析 云CDN SLS日志服务 云监控 CMake 自动化编译工具 #http #OCCT #Qt #rockylinux #rhel #操作系统 #系统安装 linux上传下载 etl docker命令大全 端口聚合 windows11 scikit-learn CAD瓦片化 栅格瓦片 矢量瓦片 Web可视化 DWG解析 金字塔模型 影刀证书 分享 改行学it 线性代数 线程同步与互斥 #端口 网络犯罪 人工智能 #飞书 宕机切换 服务器宕机 矩阵 超融合 云耀服务器 #STC8 #STM32 udp回显服务器 哥sika 开闭原则 KingbaseES Bluedroid 魔百盒刷机 移动魔百盒 机顶盒ROM 玩机技巧 软件分享 软件图标 ollama下载加速 qtcreator 顽固图标 启动台 端口开放 Bluetooth 配对 本地不受DeepSeek 命令键 C++11 lambda 包装类 coffeescript Eigen vmvare infini-synapse Bilibili B站 skywalking #conda #kali 查看 ss mapreduce 定义 核心特点 优缺点 适用场景 数字比特流 模拟信号 将二进制数据映射到模拟波形上 频谱资源 振幅频率相位 载波高频正弦波 5分钟快速学 docker入门 代理配置 企业级DevOps rxjava docker search docker 失效 docker pull失效 docker search超时 BiSheng Jenkins 配置凭证 #网络协议 #ip Wi-Fi 查询数据库服务IP地址 SQL Server jetty undertow 相差8小时 UTC 时间 田俊楠 win服务器架设 windows server 联网 easyconnect RNG 状态 可复现性 随机数生成 机器人仿真 模拟仿真 EF Core 客户端与服务器评估 查询优化 数据传输对象 查询对象模式 labview gpu SpringBoot 泛微OA #其他 ubuntu 18.04 Office nginx默认共享目录 clipboard 剪贴板 剪贴板增强 Windows Hello 摄像头 指纹 生物识别 HarmonyOS SDK Map Kit 地图 恢复 黑马 苍穹外卖 mysql8.4.5 Win10修改MAC #comfyui #矫平机 #校平机 #铁 #钢 figma 交叉编译 WLAN Trae叒更新了? hosts hosts文件管理工具 sql注入 gerrit 电子学会 usb typec FCN 扩展错误 myeclipse #神经网络 #自然语言处理 #语言模型 #redis #缓存 HAProxy h.264 Nuxt.js ux 执法记录仪 智能安全帽 smarteye chfs ubuntu 16.04 服务器正确解析请求体 安防软件 WINCC 充电桩平台 充电桩开源平台 海康 风扇散热策略 曙光 海光 宁畅 中科可控 事件分析 边缘服务器 利旧 AI识别 Modbustcp服务器 CSDN开发云 EasyTier #默认分类 av1 电视盒子 navicat 合成模型 扩散模型 图像生成 threejs 3D macbook 接口返回 Github加速 Mac上Github加速 Chrome浏览器插件 亲测 redisson #电脑 #经验分享 语法 生活 UFW VAD 视频异常检测 VAR 视频异常推理 推理数据集 强化微调 GRPO 系统架构设计师 #目标跟踪 内网环境 佛山戴尔服务器维修 佛山三水服务器维修 sysctl.conf vm.nr_hugepages URL 业界资讯 SysBench 基准测试 搭建个人相关服务器 迁移指南 授时服务 北斗授时 shard jQuery 云服务器租用 FreeRTOS 报警主机 豪恩 VISTA120 乐可利 霍尼韦尔 枫叶 时刻 参数服务器 分布式计算 数据并行 openlayers bmap tile server 协作 siteground siteground安装wp 一键安装wordpress 服务器安装wordpress #哈希算法 #散列表 强制清理 强制删除 mac废纸篓 Ubuntu 24.04 搜狗输入法闪屏 Ubuntu中文输入法 自定义shell当中管道的实现 匿名和命名管道 android-ndk English RHCE 智能手表 Pura80 WATCH 5 nvm安装 FreeFileSync 定时备份 #前端 idm MobileNetV3 最新微服务 Searxng 工作流自动化 AI智能体 scala #iotdb #时序数据库 #web安全 #网络安全 #渗透测试 #计算机 #转行 #职场发展 #干货分享 xss Unity插件 Async注解 动态域名 java18 #c# #OPCUA #aws #搜索引擎 #elasticsearch #全文检索 极限编程 Mac软件 红黑树 安全整改 黑屏 #WSL #信息可视化 #qml #qt linux 命令 sed 命令 医院门诊管理系统 仓库 共享 设置 分布式数据库 集中式数据库 业务需求 选型误 微信自动化工具 微信消息定时发送 手动分区 概率与统计 随机化 位运算 几何计算 数论 视频会议 #云原生 #阿里云 #部署配置docker #容器化 压测 电商平台 cpp-httplib hexo rtcp 站群 多IP 静态NAT OpenAI FS100P 小亦平台 运维问题解决方法 gaussdb问题解决 转流 rtsp取流 rtmp推流 whistle bert 九天画芯 铁电液晶 显示技术 液晶产业 技术超越 视频号 vsode GDB调试 Ubuntu环境 四层二叉树 断点设置 #Dify #sql #学习 #自动化测试 #软件测试 xpath定位元素 proxy模式 uprobe isaacgym 中文分词 NGINX POD #图像处理 #数据库 #nginx #性能优化 #科技 #kubernetes sentinel 高效I/O 火山引擎 开启黑屏 激光雷达 镭眸 汽车 mac完美终端 #macos26 #启动台 项目部署 ELF加载 broadcom PP-OCRv5 ubuntu20.04 OCR #时序数据库 #iotdb #重构 #excel #PG处理POI分类数据 #Java处理POI分类数据 #ApachePOI数据处理 #高德POI分类数据存储 #POI数据分类存储 vscode 1.86 AISphereButler TrueLicense 制造 虚拟主机 物理机服务器 食用文档 物理服务器租用 #面试 #职场和发展 arkts arkui 效率 ohmyzsh #小程序 #Linux #Ubuntu #ubuntu24 #ubuntu2404 #ubuntu安装 #sudo 集群管理 pow 指数函数 优化 N8N OpenTiny 实时语音识别 流式语音识别 vue2 恒源云 能源 tty2 dos 批处理 日期 连接失败 Mosquitto IT 护眼模式 路由器 #vue.js 智能问答 Milvus UDS Bootloader 敏捷开发 #机器人 lrzsz 模板 泛型编程 选择排序 地平线5 机架式 IDC pikachu靶场 XSS漏洞 XSS DOM型XSS 统信uos #美食 #django #flask #node.js mujoco NTP服务器 重置密码 #shell #脚本 cp 进度显示 #华为云 #云服务部署 #搭建AI #Flexus X实例 Modbus TCP 集合 List #架构 #分布式 #单机架构 #微服务 #vue.js 低成本 风扇控制软件 实时日志 logs #驱动 #嵌入式 fast watchtower homeassistant 基本指令 #物联网 #算法 #洛谷 #强连通分量 #缩点 authing 服务器托管 云托管 数据中心 idc机房 #后端 #计算机网络 #网络攻击模型 #tensorflow #pip 几何绘图 三角函数 #嵌入式硬件 mobaxterm #统信uos #系统架构 #数据库架构 #安全架构 #RAG #端口占用 #系统详情 责任链模式 信奥 SonarQube #HTML #核心知识点 #web #知识点 #网页开发 #postgresql #inlong #pycharm #c语言 #程序人生 Excel转json Excel转换json Excel累加转json python办公 #golang #unity #着色器 #mc #服务器搭建 #mc服务器搭建 #mc服务器 #笔记 #intellij-idea #idea #intellij idea #需求分析 #区块链 #数据分析 #jdk #编程 #spring boot #Linux的基础IO #jvm #毕设 #租房管理系统 #论文 #虚拟地址 #虚拟地址空间 #写时拷贝 #系统架构 A2A #iot #图论 #深度优先 WinCC OT与IT SCADA 智能制造 MES guava #echarts #https #nginx配置 #nginx案例 #nginx详解 细胞分割 计数自动化 图像分析 #GESP C++ #C++程序竞赛 #信奥赛 #jenkins #音视频 #AIGC #开源 #测评 #CCE #Dify-LLM #Flexus #腾讯云 #VNC #截图工具 #Agent #智能运维 #AI开发平台 #AI工具链 #智能路由器 #NAT #信息与通信 #进程状态 #僵尸进程 #孤儿进程 #挂起 #eureka #rocketmq #零拷贝 dfs #node.js #AI编程 #低代码 #Ollama #agent #向量库 #fastAPI #langchain #tcp/ip #RBAC桎梏 #角色爆炸 #静态僵化 #授权对象体系 #组织维度 #业务维度 #进程优先级 #进程切换 #Linux调度算法 #寄存器 #物联网 #进程 #fork #深信服运维安全管理系统 #远程命令执行漏洞 #MCP协议 #typescript #实战指南 #MCP服务器 #深度学习 #概率论 #gitlab #github #神经网络 #Linux的进程间通信 #CMake #Debian #CentOS #实时流处理 #设备故障预测 #Flink #DeepSeek #蓝耘智算 #微信小程序 #配置教程 #入门教程 #安装教程 #图文教程 #github #Cookie #Session #HTTP #leetcode #硬盘读取 #硬盘读取失败 #MAC电脑读取硬盘 #LoTDB #开源 #AI写作 #struts #raid #raid阵列 #beego #go1.19 #beautifulsoup #Apache IoTDB #android #缓冲区 #Linux #VMware #VMWare Tool #elasticsearch #Linux的进程信号 #list #stl #react.js #javascript #React 编译器 #自动优化 #记忆化技术 #重新渲染优化 #使用教程 #unix #intellij-idea #内网穿透 #矩阵 #ruby #哈希表 #gitee #权限