最新资讯

  • 【一篇搞定配置】如何在Ubuntu上安装配置Hadoop集群

【一篇搞定配置】如何在Ubuntu上安装配置Hadoop集群

2025-04-30 02:00:21 1 阅读

🌈 个人主页:十二月的猫-CSDN博客
🔥 系列专栏: 🏀各种软件安装与配置_十二月的猫的博客-CSDN博客

💪🏻 十二月的寒冬阻挡不了春天的脚步,十二点的黑夜遮蔽不住黎明的曙光 

        关注本专栏并在专栏中任何一篇文章下发表评论,即可获得【PyCharm、Clion、DataGrip、DataSpell、IDEA、Goland、Rider、PhpStorm等软件的破解版】。 

目录

1. 前言

2. 背景知识

3. 集群Hadoop配置

3.1 安装虚拟机

3.2 网络配置

3.2.1 修改主机名 

3.2.2 获取两台机器的ip 

3.2.3 添加ip和主机名的映射关系

3.3 SSH无密码登录节点

3.4 配置PATH变量

3.5 配置集群/分布式环境(只在Master结点中)

3.5.1 修改文件workers(匹配Slave和Master)

3.5.2 修改文件core-site.xml 

1. fs.defaultFS

2. hadoop.tmp.dir

3.  标签

3.5.3 修改文件hdfs-site.xml

3.5.4 修改文件mapred-site.xml

3.5.5 修改文件 yarn-site.xml

 3.5.6 查看运行结果

 3.5.7 特别提醒

3.6 执行分布式实例

4. 总结


1. 前言

通过前一篇文章:

【一篇搞定配置】如何在Ubuntu上配置单机/伪分布式Hadoop_ubuntu安装hadoop详细教程-CSDN博客我们已经在Ubuntu上面完成单机/伪分布式Hadoop的安装配置🥰

接下来,在这篇文章中,猫猫将带大家完成真正意义上的Hadoop配置。

⚠️注意!!

不是运行本地文件的单机Hadoop。

也不是使用HDFS与MapReduce但实质只有一个机器的伪分布Hadoop。

让我们走入Hadoop的世界🌼

2. 背景知识

       当Hadoop采用分布式模式部署和运行时,存储采用分布式文件系统HDFS,而且,HDFS的名称节点和数据节点位于不同机器上。这时,数据就可以分布到多个节点上,不同数据节点上的数据计算可以并行执行,这时的MapReduce分布式计算能力才能真正发挥作用。

Hadoop作用:

        1、分布式存储。

        2、分布式计算。

核心思想:

        1、将数据存储在不同物理机器上,释放了一台机器的庞大内存压力。

        2、数据存储在不同物理机器上,就可以使用不同机器的计算资源进行计算,结果再整合到一个结点上即可。

        3、只有数据分布到多个节点上(HDFS的名称节点和数据节点位于不同机器上),不同数据节点上的数据计算并行执行,MapReduce分布式计算能力才能真正发挥作用。

       为了降低分布式模式部署难度,本教程简单使用两个节点(两台物理机器)来搭建集群环境,一台机器作为 Master节点,主机名为hadoop01,另一台机器作为 Slave 节点,主机名为hadoop02。由三个以上节点构成的集群,也可以采用类似的方法完成安装部署。

1. Master 节点:

Master 节点负责集群的控制、管理和协调。它是集群的“大脑”,主要任务是管理任务的调度、分配资源和维护集群的整体运行状态。

在 Hadoop 集群中的 Master 节点通常包括以下角色:

  • NameNode(HDFS):NameNode 是 HDFS 的 Master 节点,负责管理文件系统的元数据,如文件的名称、目录结构、块的位置等。它维护一个内存中的文件系统映射,确定文件如何被分割成块,以及这些块分布在哪些 DataNode(Slave 节点)上。

  • ResourceManager(YARN):ResourceManager 是 YARN 中的 Master 节点,负责资源管理。它监控集群的资源使用情况(如 CPU、内存)并向客户端应用程序提供资源分配。ResourceManager 协调所有的应用程序的执行,并且确保系统资源的合理分配。

  • JobHistoryServer(MapReduce):JobHistoryServer 负责存储 MapReduce 作业的历史记录,包括作业的运行状态、日志和结果。它有助于用户查看和调试之前的作业。

Master 节点的作用:

  • 管理文件系统:NameNode 负责管理 HDFS 上的文件,确定数据存储的位置,并负责数据块的复制策略。
  • 资源管理和调度:ResourceManager 负责调度任务,合理分配集群中的资源给各个计算任务。
  • 协调作业执行:在 MapReduce 中,Master 节点负责协调任务的执行,分配任务给适当的计算资源。

2. Slave 节点:

Slave 节点是 Hadoop 集群中的工作节点,负责存储数据和执行计算任务。与 Master 节点配合工作,处理具体的数据存储和计算。

在 Hadoop 集群中的 Slave 节点通常包括以下角色:

  • DataNode(HDFS):DataNode 是 HDFS 中的 Slave 节点,负责实际的数据存储。它存储着文件的数据块,并定期将其状态报告给 NameNode,确保数据的健康和备份。DataNode 还负责数据块的读取和写入操作。

  • NodeManager(YARN):NodeManager 是 YARN 中的 Slave 节点,负责集群中每个节点的资源监控和任务执行。它接收 ResourceManager 的指令,管理本地资源,启动容器并执行分配的任务。NodeManager 也会定期向 ResourceManager 汇报节点的资源使用情况。

  • Worker 节点(MapReduce):在 MapReduce 中,Slave 节点负责执行任务的实际计算。每个 Slave 节点上运行着 TaskTracker(对于旧版 Hadoop),或在 YARN 中运行容器来执行 Mapper 和 Reducer 任务。

Slave 节点的作用:

  • 数据存储:DataNode 负责存储 HDFS 上的数据,确保数据分布在不同的物理机器上,并定期向 NameNode 汇报其状态。
  • 任务执行:NodeManager 负责管理计算任务的执行,确保各个任务能够在节点上顺利运行。
  • 计算资源的提供:Slave 节点通过提供计算资源(如 CPU、内存)支持任务的执行,执行计算任务并将结果返回给 ResourceManager 或客户端。

总结:

  • Master 节点 负责 Hadoop 集群的整体管理和调度,主要包括 NameNode(HDFS)、ResourceManager(YARN)和 JobHistoryServer 等功能。
  • Slave 节点 是实际存储数据和执行计算任务的节点,主要包括 DataNode(HDFS)和 NodeManager(YARN)等功能。

Hadoop 集群的安装配置大致包括以下步骤:
        步骤1:选定一台机器作为 Master;
        步骤2:在Master节点上创建hadoop用户、安装SSH服务端、安装Java环境;
        步骤3:在Master节点上安装Hadoop,并完成配置;
        步骤4:在其他Slave节点上创建hadoop用户、安装SSH服务端、安装Java环境;
        步骤5:将Master节点上的“/usr/local/hadoop”目录复制到其他Slave节点上;
        步骤6:在Master节点上开启Hadoop;
       上述这些步骤中,关于如何创建hadoop用户、安装SSH服务端、安装Java环境、安装Hadoop等过程,已经在前面介绍伪分布式安装的时候做了详细介绍,请按照之前介绍的方法完成步骤1到步骤4,这里不再赘述。在完成步骤1到步骤4的操作以后,才可以继续进行下面的操作。

😎看到这里,如果你思考的仔细,我想你会有这样的疑问:

        不同的物理机器是如何完成通信的?也就是说Master是如何管理所有Slave结点的?

😌不要着急,下面我们就来解答

3. 集群Hadoop配置

3.1 安装虚拟机

       请参照教程【一篇搞定配置】在VirtualBox内安装运行Unbuntu-CSDN博客安装好2个Linux虚拟机,主机名分别是hadoop01和hadoop02。由于hadoop02是Slave节点,不需要安装很多的软件,所以,配置可以比hadoop01低一,比如,对于hadoop02而言,内存只需要配置4GB,磁盘只需要配置20GB。
       安装好虚拟机hadoop02以后,首先创建hadoop用户,然后使用hadoop用户登录Linux系统,安装SSH服务端,并安装Java环境。

在VirtualBox上将有两个虚拟机:hadoop、hadoop02

3.2 网络配置

这一部分的作用就是让两台虚拟机能够互相进行网络访问

      由于集群中有两台机器需要设置,所以,在接下来的操作中,一定要注意区分Master节点和Slave节点。为了便于区分Master节点和Slave节点,可以修改各个节点的主机名,这样,在Linux系统中打开一个终端以后,在终端窗口的标题和命令行中都可以看到主机名,就比较容易区分当前是对哪台机器进行操作。在Ubuntu中,我们在 Master 节点(hadoop01)上执行如下命令修改主机名

打开终端, 如果是按照我的文章【一篇搞定配置】在VirtualBox内安装运行Unbuntu-CSDN博客,进行配置,显示内容将如下:

主机名:csh-VirtualBox

用户名:hadoop


3.2.1 修改主机名 

sudo vim /etc/hostname

       执行上面命令后,就打开了“/etc/hostname”这个文件,这个文件里面记录了主机名.因此,打开这个文件以后,里面就只有(主机名字)这一行内容,可以直接删除,并修改为“hadoop01”(注意是区分大小写的),然后,保存退出vim编辑器,这样就完成了主机名的修改,需要重启Linux系统才能看到主机名的变化。

       修改主机名并且重启Linux系统之后,用hadoop登录Linux系统,打开终端,进入Shell命令提示符状态,会显示如下内容:

hadoop@ hadoop01:~$

  1. 主机名(hostname):主机名是用来标识计算机或设备的名称,通常在网络中用来区分不同的计算机。它是一个系统级别的标识符,表示你计算机的网络名称。例如,在网络中访问你的计算机时,其他设备会使用主机名来识别你的机器。

  2. 用户名(username):用户名是用于标识系统中用户的名称,它是操作系统中创建的每个用户的唯一标识符。用户名用于登录系统,获取个人的权限和文件访问权限。

       可以看出,这时就很容易辨认出当前是处于Master节点(hadoop01)上进行操作,不会和Slave节点(hadoop02)产生混淆。同理,请按照相同的方法,把虚拟机hadoop02中的主机名修改为“hadoop02”,并重启Linux系统


3.2.2 获取两台机器的ip 

       然后,使用ifconfig命令获取每台虚拟机的IP地址,具体命令如下:

ifconfig

       下图给出ifconfig命令的执行效果,从中可以看到,hadoop01的IP地址是192.168.91.128(你的机器的IP地址可能和这个不同)。同理,可以查询到hadoop02的IP地址是192.168.91.129(你的机器的IP地址可能和这个不同)。

       (可能不能运行这个指令,如下图,则按照要求下载插件:)

利用ifconfig确定两台机器的ip地址: 

       得到两台机器的ip地址如下(你的两台机器可能不同):

要求虚拟机都要有自己的ip,因此虚拟机的网络建议为桥接网络 

192.168.91.128   hadoop01
192.168.91.129   hadoop02

3.2.3 添加ip和主机名的映射关系

这个步骤是在linux内部建立一张表格,用来查询主机名和Ip地址。

       在hadoop01中,执行如下命令打开并修改Master节点中的“/etc/hosts”文件:

sudo vim /etc/hosts

       将上文的ip地址和主机名映射写入,如图:

需要注意的是:

一般hosts文件中只能有一个127.0.0.1,其对应主机名为localhost,如果有多余127.0.0.1映射,应删除,特别是不能存在“127.0.0.1 hadoop01”这样的映射记录。修改后需要重启Linux系统。

       上面完成了Master节点(hadoop01)的配置,接下来要继续完成对其他Slave节点的配置修改。本教程只有一个Slave节点,主机名为hadoop02。请参照上面的方法,把Slave节点上的“/etc/hostname”文件中的主机名修改为“hadoop02”,同时,修改“/etc/hosts”的内容,在hosts文件中增加如下两条IP和主机名映射关系: 

192.168.91.128   hadoop01
192.168.91.129   hadoop02

       修改完成以后,请重新启动Slave节点的Linux系统。 


       这样就完成了Master节点和Slave节点的配置,然后,需要在各个节点上都执行如下命令,测试是否相互ping得通,如果ping不通,后面就无法顺利配置成功:

ping hadoop01 -c 3   # 只ping 3次就会停止,否则要按Ctrl+c中断ping命令
ping hadoop02 -c 3

       例如,在Master节点上ping Slave1,如果ping通的话,会显示下图所示:

       到这里,两台虚拟机(Master和Slave)就可以互相进行网络通信!!!✌🏁

3.3 SSH无密码登录节点

这一部分作用:让Master虚拟机远程登录(完成后续控制)Slave虚拟机

完整流程如下:

  • 客户端(Master结点)生成密钥对(公钥和私钥)。
  • 客户端将公钥复制到服务器(Slave结点)的 ~/.ssh/authorized_keys 文件中。
  • Master结点发起 SSH 连接请求,Slave结点根据Master结点的公钥验证身份。
  • 如果身份验证成功,建立连接,不需要密码。

       首先需要在hadoop02上执行如下命令安装SSH服务端(如果此前已经安装就不用重复安装):

sudo apt-get install openssh-server

       然后,生成Master节点(hadoop01)的公匙,如果之前已经生成过公钥(在3.3.3节安装伪分布式模式的Hadoop时生成过一次公钥),必须要删除原来生成的公钥,重新生成一次,因为前面我们对主机名进行了修改。在Master节点执行如下命令:

cd ~/.ssh              # 如果没有该目录,先执行一次ssh localhost
rm ./id_rsa*           # 删除之前生成的公匙(如果已经存在)
ssh-keygen -t rsa       # 执行该命令后,遇到提示信息,一直按回车就可以

       为了让Master节点能够无密码SSH登录本机,需要在Master节点上执行如下命令:

cat ./id_rsa.pub >> ./authorized_keys

       完成后可以执行命令“ssh hadoop01”来验证一下,可能会遇到提示信息,只要输入yes即可,测试成功后,请执行“exit”命令返回原来的终端。
       接下来,在Master节点(hadoop01)将上公匙传输到Slave节点(hadoop02):

scp ~/.ssh/id_rsa.pub hadoop@hadoop02:/home/hadoop/

       上面的命令中,scp是secure copy的简写,用于在 Linux下进行远程拷贝文件,类似于cp命令,不过,cp只能在本机中拷贝。执行scp时会要求输入hadoop02上hadoop用户的密码,输入完成后会提示传输完毕,如图3-15所示。传输完成以后,在hadoop02上的“/home/hadoop”目录下就可以看到文件id_rsa.pub了。

 id_rsa.pub:内部放着Master生成的公钥

       接着在Slave节点(hadoop02)上执行如下命令将Master生成的SSH公匙加入授权:

mkdir ~/.ssh       # 如果不存在该文件夹需先创建,若已存在,则忽略本命令
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
rm ~/id_rsa.pub    # 用完以后就可以删掉

       如果有其他Slave节点,也要执行将Master公匙传输到Slave节点以及在Slave节点上加入授权这两步操作。这样,在Master节点上就可以无密码SSH登录到各个Slave节点了,可在Master节点(hadoop01)上执行如下命令进行检验:

ssh hadoop02

完整流程如下:
  • 客户端(Master结点)生成密钥对(公钥和私钥)。
  • 客户端将公钥复制到服务器(Slave结点)的 ~/.ssh/authorized_keys 文件中。
  • Master结点发起 SSH 连接请求,Slave结点根据Master结点的公钥验证身份。
  • 如果身份验证成功,建立连接,不需要密码。

3.4 配置PATH变量

       在前面的伪分布式安装内容中,已经介绍过PATH变量的配置方法。可以按照同样的方法进行配置,这样就可以在任意目录中直接使用hadoop、hdfs等命令了。如果还没有配置PATH变量,那么需要在Master节点上进行配置。 首先执行命令“vim ~/.bashrc”,也就是使用vim编辑器打开“~/.bashrc”文件,然后,在该文件最上面的位置加入下面一行内容:

export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin

        保存后执行命令“source ~/.bashrc”,使配置生效。

3.5 配置集群/分布式环境(只在Master结点中)

 Secondary NameNode的作用:

1. 辅助 NameNode 合并 fsimage 和 editlog

  • 主要作用:Secondary NameNode 主要负责定期合并 fsimage 和 editlog,以减轻 NameNode 的负担。
  • fsimage:是 Hadoop HDFS 的文件系统元数据的快照,记录了文件系统的完整目录结构。
  • editlog:记录了所有对 HDFS 元数据的修改操作(比如文件的创建、删除等)。

每当 HDFS 中的数据发生变化时,NameNode 会将这些操作记录到 editlog 文件中。随着时间的推移,editlog 文件会变得非常大,而 fsimage 文件则会变得过时。为了减轻 NameNode 的负担,Secondary NameNode 会定期将 editlog 文件中的所有更改应用到一个新的 fsimage 文件中,并清理掉旧的 editlog 文件。

3.5.1 修改文件workers(匹配Slave和Master)

作用:在Master结点中注册Slave结点(数据节点)

        需要把所有数据节点的主机名写入该文件,每行一个,默认为 localhost(即把本机作为数据节点),所以,在伪分布式配置时,就采用了这种默认的配置,使得节点既作为名称节点也作为数据节点。在进行分布式配置时,可以保留localhost,让Master节点同时充当名称节点和数据节点,或者也可以删掉localhost这行,让Master节点仅作为名称节点使用
        本教程让Master节点仅作为名称节点使用,因此将hadoop01中的workers文件中原来的localhost删除,只添加如下一行内容:

hadoop02

3.5.2 修改文件core-site.xml 

        请把hadoop01中的core-site.xml文件修改为如下内容:


        
                fs.defaultFS
                hdfs://hadoop01:9000
        
        
                hadoop.tmp.dir
                file:/usr/local/hadoop/tmp
                Abase for other temporary directories.
        
1. fs.defaultFS
  • 作用:配置 Hadoop 使用的文件系统的 URI。
  • 说明fs.defaultFS 是 Hadoop 配置中的一个重要参数,用来指定 Hadoop 集群使用的默认文件系统。在这个例子中,fs.defaultFS 设置为 hdfs://hadoop01:9000,表示 Hadoop 使用的是 HDFS(Hadoop 分布式文件系统),并且 HDFS 名称节点(NameNode)运行在 hadoop01 主机上,端口为 9000
  • 示例
    • hdfs://hadoop01:9000 表示 Hadoop 集群中的文件系统通过 HDFS 协议访问,且连接的服务器是 hadoop01 主机,端口号是 9000
    • 在该配置下,所有基于 HDFS 的文件操作(如 hadoop fs -ls /)都将默认连接到 hdfs://hadoop01:9000 上。
2. hadoop.tmp.dir
  • 作用:指定 Hadoop 使用的临时目录。
  • 说明hadoop.tmp.dir 配置项定义了 Hadoop 使用的临时目录的路径,通常用于存储临时文件,如日志文件、分布式缓存等。在这个例子中,配置的是本地文件系统路径 file:/usr/local/hadoop/tmp
  • 示例
    • file:/usr/local/hadoop/tmp 表示 Hadoop 会在本地文件系统上 /usr/local/hadoop/tmp 路径下创建临时文件夹。这通常用于存放一些临时的计算数据、运行时日志等。
    • 需要确保该目录存在,并且 Hadoop 用户有权限读写该目录。
3.  标签
  • 作用:对配置项进行描述。
  • 说明 标签用于为配置项提供额外的说明或注释。在这个例子中,hadoop.tmp.dir 的描述是 Abase for other temporary directories.,说明这个目录是其他临时目录的基础目录。

3.5.3 修改文件hdfs-site.xml

        对于Hadoop的分布式文件系统HDFS而言,一般都是采用冗余存储,冗余因子通常为3,也就是说,一份数据保存三份副本。但是,本教程只有一个Slave节点作为数据节点,即集群中只有一个数据节点,数据只能保存一份,所以 ,dfs.replication的值还是设置为 1。hadoop01中的hdfs-site.xml具体内容如下:


        
                dfs.namenode.secondary.http-address
                hadoop01:50090
        
        
                dfs.replication
                1
        
        
                dfs.namenode.name.dir
                file:/usr/local/hadoop/tmp/dfs/name
        
        
                dfs.datanode.data.dir
                file:/usr/local/hadoop/tmp/dfs/data
        

核心点:

        1、如果有多个Slave结点来作为datanode,这里的 file:/usr/local/hadoop/tmp/dfs/data将在所有slave中生效(创建目录文件)。

        2、namenode仅仅在Master机中创建file:/usr/local/hadoop/tmp/dfs/name

3.5.4 修改文件mapred-site.xml

        hadoop01中的“/usr/local/hadoop/etc/hadoop”目录下有一个mapred-site.xml,把mapred-site.xml文件配置成如下内容:


        
                mapreduce.framework.name
                yarn
        
        
                mapreduce.jobhistory.address
                hadoop01:10020
        
        
                mapreduce.jobhistory.webapp.address
                hadoop01:19888
        
        
yarn.app.mapreduce.am.env
HADOOP_MAPRED_HOME=/usr/local/hadoop


mapreduce.map.env
HADOOP_MAPRED_HOME=/usr/local/hadoop


mapreduce.reduce.env
HADOOP_MAPRED_HOME=/usr/local/hadoop
 

3.5.5 修改文件 yarn-site.xml

        请把hadoop01中的yarn-site.xml文件配置成如下内容:


        
                yarn.resourcemanager.hostname
                hadoop01
        
        
                yarn.nodemanager.aux-services
                mapreduce_shuffle
        

        上述5个文件全部配置完成以后,需要把Master节点上的“/usr/local/hadoop”文件夹复制到各个节点上。如果之前已经运行过伪分布式模式,建议在切换到集群模式之前首先删除之前在伪分布式模式下生成的临时文件。具体来说,需要首先在Master节点上执行如下命令:

cd /usr/local/hadoop
sudo rm -r ./tmp     # 删除 Hadoop 临时文件
sudo rm -r ./logs/*   # 删除日志文件
cd /usr/local
tar -zcf ~/hadoop.master.tar.gz ./hadoop   # 先压缩再复制
cd ~
scp ./hadoop.master.tar.gz hadoop02:/home/hadoop

        然后在hadoop02节点上执行如下命令:

cd ~
sudo rm -r /usr/local/hadoop    # 删掉旧的(如果存在)
sudo tar -zxf ~/hadoop.master.tar.gz -C /usr/local
sudo chown -R hadoop /usr/local/hadoop

        同样,如果有其他Slave节点,也要执行将hadoop.master.tar.gz传输到Slave节点以及在Slave节点解压文件的操作。
        首次启动Hadoop集群时,需要先在Master节点(hadoop01)执行名称节点的格式化(只需要执行这一次,后面再启动Hadoop时,不要再次格式化名称节点),命令如下:

cd /usr/local/hadoop
./bin/hdfs namenode -format

         现在就可以启动Hadoop了,启动需要在Master节点(hadoop01)上进行,执行如下命令:

cd /usr/local/hadoop
./sbin/start-dfs.sh
./sbin/start-yarn.sh
./sbin/mr-jobhistory-daemon.sh start historyserver

 3.5.6 查看运行结果

         通过命令jps可以查看各个节点是否分配了进程去运行。

         如果已经正确启动,则在Master节点上可以看到NameNode、ResourceManager、SecondaryNameNode和JobHistoryServer进程,如下图:

         在Slave节点可以看到DataNode和NodeManager进程,如下图:


                   另外还需要在Master节点上通过如下命令查看数据节点是否正常启动: 

cd /usr/local/hadoop
./bin/hdfs dfsadmin -report


         也可以在Linux系统的浏览器中输入地址“http://hadoop01:9870/”,通过 Web 页面看到查看名称节点和数据节点的状态,如下图:

 3.5.7 特别提醒

         这里再次强调,伪分布式模式和分布式模式切换时需要注意以下事项:
                1、从分布式切换到伪分布式时,不要忘记修改workers配置文件;
                2、在两者之间切换时,若遇到无法正常启动的情况,可以删除所涉及节点的临时文件夹,这样虽然之前的数据会被删掉,但能保证集群正确启动。所以,如果集群以前能启动,但后来启动不了,特别是数据节点无法启动,不妨试着删除所有节点(包括Slave节点)上的“/usr/local/hadoop/tmp”文件夹,再重新执行一次“hdfs namenode -format”,再次启动即可。

3.6 执行分布式实例

         执行分布式实例过程与伪分布式模式一样,首先创建HDFS上的用户目录,可以在Master节点(hadoop01)上执行如下命令:

hdfs dfs -mkdir -p /user/hadoop #此前已经配置了PATH环境变量,所以不用路径全称

         然后,在HDFS中创建一个input目录,并把“/usr/local/hadoop/etc/hadoop”目录中的配置文件作为输入文件复制到input目录中,命令如下:

hdfs dfs -mkdir input
hdfs dfs -put /usr/local/hadoop/etc/hadoop/*.xml input

         接着就可以运行 MapReduce 作业了,命令如下:

hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.5.jar grep input output 'dfs[a-z.]+'

         运行时的输出信息与伪分布式类似,会显示MapReduce作业的进度:

     在执行过程中,可以在Linux系统中打开浏览器,在地址栏输入“http://hadoop01:8088/cluster”, 通过Web界面查看任务进度,在Web界面点击 "Tracking UI" 这一列的“ApplicationMaster”链接(如图3-22所示),可以看到任务的运行信息,如下图所示:

执行完毕后的输出结果如图所示:

最后,关闭Hadoop集群,需要在Master节点(hadoop01)执行如下命令:

stop-yarn.sh
stop-dfs.sh
mr-jobhistory-daemon.sh stop historyserver

至此,就顺利完成了Hadoop集群搭建。

4. 总结

如果觉得对你有帮助,辛苦友友点个赞,收个藏呀~~~ 

本文地址:https://www.vps345.com/5950.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 python MCP javascript 前端 chrome edge ssh 阿里云 网络 网络安全 网络协议 llama 算法 opencv 自然语言处理 神经网络 语言模型 ubuntu deepseek Ollama 模型联网 API CherryStudio 进程 操作系统 进程控制 Ubuntu fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse harmonyos 华为 开发语言 typescript 计算机网络 数据库 centos oracle 关系型 安全 分布式 RTSP xop RTP RTSPServer 推流 视频 golang spring boot 后端 java tomcat GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 pycharm ide pytorch 人工智能 rust http ssl 前端框架 深度学习 YOLO 目标检测 计算机视觉 jenkins LDAP filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 macos adb docker 容器 nginx 监控 自动化运维 智能路由器 外网访问 内网穿透 端口映射 运维开发 windows django flask web3.py numpy live555 rtsp rtp Hyper-V WinRM TrustedHosts 机器学习 web安全 Kali Linux 黑客 渗透测试 信息收集 笔记 C 环境变量 进程地址空间 github 创意 社区 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn flutter react.js 前端面试题 node.js 持续部署 tcp/ip android 鸿蒙 Dell R750XS 科技 ai 个人开发 微服务 springcloud udp unity uni-app ollama llm php 面试 性能优化 jdk intellij-idea 架构 ruoyi minicom 串口调试工具 测试工具 DeepSeek行业应用 DeepSeek Heroku 网站部署 自动化 蓝耘科技 元生代平台工作流 ComfyUI websocket 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 ffmpeg 音视频 c++ ESP32 gitee nuxt3 vue3 实时音视频 vscode react next.js 部署 部署next.js c语言 microsoft vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 bash 银河麒麟服务器操作系统 系统激活 .net 负载均衡 安全威胁分析 elasticsearch openEuler unity3d AI 爬虫 数据集 银河麒麟 kylin v10 麒麟 v10 spring 物联网 单片机 fpga开发 gitlab express okhttp CORS 跨域 计算机外设 电脑 mac 软件需求 HarmonyOS Next mysql 虚拟化 半虚拟化 硬件虚拟化 Hypervisor 远程工作 wsl2 wsl jmeter 软件测试 HCIE 数通 系统架构 大模型微调 debian Samba NAS maven intellij idea 腾讯云 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 dubbo android studio .netcore gateway Clion Nova ResharperC++引擎 Centos7 远程开发 code-server 微信 微信分享 Image wxopensdk echarts 信息可视化 数据分析 网页设计 产品经理 agi vim 开源 conda pillow json html5 firefox sqlserver kamailio sip VoIP 大数据 大数据平台 系统开发 binder 车载系统 framework 源码环境 java-ee 统信 国产操作系统 虚拟机安装 jar WSL win11 无法解析服务器的名称或地址 stm32 W5500 OLED u8g2 TCP服务器 linux环境变量 excel prometheus k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 kubernetes 学习方法 经验分享 程序人生 低代码 openwrt Docker Compose docker compose docker-compose webrtc asm pdf 多线程服务器 Linux网络编程 av1 电视盒子 机顶盒ROM 魔百盒刷机 1024程序员节 springsecurity6 oauth2 授权服务器 token sas 3d 数学建模 DeepSeek-R1 API接口 Agent LLM svn list 数据结构 visualstudio Trae AI编程 AI代码编辑器 ArcTS 登录 ArcUI GridItem 向日葵 redis qt 嵌入式硬件 EasyConnect Cline ecmascript nextjs reactjs https 流式接口 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 apache Deepseek 交互 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 企业微信 Linux24.04 deepin 搜索引擎 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 代码调试 ipdb 云原生 软件工程 c# NPS 雨云服务器 雨云 环境迁移 IIS .net core Hosting Bundle .NET Framework vs2022 僵尸进程 es jvm cpu 内存 实时 使用 VMware安装Ubuntu Ubuntu安装k8s k8s mysql离线安装 ubuntu22.04 mysql8.0 YOLOv12 go 代理模式 Windsurf 媒体 微信公众平台 centos-root /dev/mapper yum clean all df -h / du -sh 多进程 串口服务器 Qwen2.5-coder 离线部署 kvm 无桌面 命令行 matlab web Socket YOLOv8 NPU Atlas800 A300I pro asi_bench Dify firewalld 缓存 ecm bpm mybatis ddos stm32项目 mongodb chatgpt 大模型 llama3 Chatglm 开源大模型 音乐服务器 Navidrome 音流 ping++ PVE Reactor 设计模式 C++ zotero WebDAV 同步失败 ansible playbook 嵌入式 linux驱动开发 arm开发 iot 服务器配置 华为云 温湿度数据上传到服务器 Arduino HTTP rabbitmq dell服务器 硬件架构 指令 html 集成学习 集成测试 ollama下载加速 学习 服务器繁忙 sql KingBase 博客 文件系统 路径解析 devops springboot oceanbase rc.local 开机自启 systemd 麒麟 unix kylin 深度优先 图论 并集查找 换根法 树上倍增 智能手机 Termux Linux 银河麒麟桌面操作系统 Kylin OS 国产化 xss 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 系统安全 jupyter pip AIGC 游戏机 pppoe radius yum源切换 更换国内yum源 hugo RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 Netty 即时通信 NIO ESXi Dell HPE 联想 浪潮 SWAT 配置文件 服务管理 网络共享 HTTP 服务器控制 ESP32 DeepSeek gaussdb vasp安装 远程桌面 交叉编译 git visual studio code AI写作 AI作画 ui IIS服务器 IIS性能 日志监控 QQ 聊天室 spring cloud ocr asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 micropython esp32 mqtt AI agent 思科模拟器 思科 Cisco 医疗APP开发 app开发 信息与通信 算力 gpu算力 Radius 机器人 googlecloud GCC Linux环境 npm 数据挖掘 r语言 数据可视化 ip命令 新增网卡 新增IP 启动网卡 qt项目 qt项目实战 qt教程 命令 矩阵 小程序 minio 服务器管理 宝塔面板 配置教程 服务器安装 网站管理 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 其他 职场和发展 docker命令大全 5G 3GPP 卫星通信 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 根服务器 clickhouse 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 kali 共享文件夹 虚拟机 客户端 virtualenv arm 社交电子 数据库系统 selenium 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 EMQX MQTT 通信协议 kafka hibernate EMUI 回退 降级 升级 弹性计算 KVM 计算虚拟化 弹性裸金属 工业4.0 银河麒麟高级服务器 外接硬盘 Kylin protobuf 序列化和反序列化 安装 linux安装配置 VMware AD 域管理 Docker Hub docker pull 镜像源 daemon.json 网站搭建 serv00 chfs ubuntu 16.04 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 自动驾驶 漏洞 kind 微信开放平台 微信公众号配置 远程登录 telnet 监控k8s 监控kubernetes 同步 备份 建站 zabbix 强制清理 强制删除 mac废纸篓 ci/cd 软件构建 vscode 1.86 laravel grafana 小智AI服务端 xiaozhi ASR TTS 直流充电桩 充电桩 IPMI junit 游戏程序 ios 编辑器 鸿蒙系统 灵办AI 需求分析 规格说明书 bug 豆瓣 追剧助手 迅雷 nas 链表 云服务器 裸金属服务器 弹性裸金属服务器 p2p xml Claude Ark-TS语言 c 网络穿透 火绒安全 Nuxt.js SSH Xterminal efficientVIT YOLOv8替换主干网络 TOLOv8 恒源云 cmos 硬件 我的世界服务器搭建 minecraft 备选 网站 api 调用 示例 AD域 vSphere vCenter 软件定义数据中心 sddc 图形化界面 cnn DenseNet 反向代理 致远OA OA服务器 服务器磁盘扩容 CPU 主板 电源 网卡 postgresql dns uniapp vue AI大模型 程序员 大模型入门 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 aws C语言 JAVA Java 边缘计算 智能硬件 GoogLeNet AutoDL 重启 排查 系统重启 日志 原因 VMware安装mocOS macOS系统安装 crosstool-ng rpc pgpool 多层架构 解耦 计算机 gpt 田俊楠 gcc 华为od eureka sqlite 华为认证 网络工程师 交换机 WSL2 MS Materials openssl 密码学 业界资讯 USB网络共享 鲲鹏 模拟退火算法 监控k8s集群 集群内prometheus mosquitto 消息队列 无人机 selete 高级IO flink 华为机试 Python AISphereButler 课程设计 自定义客户端 SAS hadoop shell outlook docker run 数据卷挂载 交互模式 vmware 卡死 rust腐蚀 框架搭建 LInux ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 回显服务器 UDP的API使用 技能大赛 armbian u-boot 大模型教程 remote-ssh Linux PID ros2 moveit 机器人运动 ukui 麒麟kylinos openeuler 超融合 微信小程序 RustDesk自建服务器 rustdesk服务器 docker rustdesk MacMini Mac 迷你主机 mini Apple mcu 宠物 毕业设计 免费学习 宠物领养 宠物平台 ftp VPS pyqt eNSP 网络规划 VLAN 企业网络 wireshark 显示过滤器 ICMP Wireshark安装 小艺 Pura X 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 pygame 网络用户购物行为分析可视化平台 大数据毕业设计 tcp ux 多线程 vscode1.86 1.86版本 ssh远程连接 匿名管道 命名管道 tcpdump open Euler dde 统信UOS yum RTMP 应用层 LLM Web APP Streamlit big data perf 昇腾 npu opensearch helm 服务器主板 AI芯片 飞书 MI300x 孤岛惊魂4 dify WebRTC OD机试真题 华为OD机试真题 服务器能耗统计 蓝桥杯 sysctl.conf vm.nr_hugepages adobe 传统数据库升级 银行 大语言模型 LLMs 单一职责原则 网络编程 聊天服务器 套接字 TCP IPMITOOL BMC 硬件管理 opcua opcda KEPServer安装 oneapi open webui openstack Xen VR手套 数据手套 动捕手套 动捕数据手套 游戏服务器 TrinityCore 魔兽世界 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 Headless Linux dba 客户端与服务端通信 群晖 飞牛 nac 802.1 portal asp.net大文件上传下载 文件分享 7z 中间件 iis VSCode 移动云 云服务 输入法 可信计算技术 FTP 服务器 XCC Lenovo TRAE elk Logstash 日志采集 繁忙 解决办法 替代网站 汇总推荐 AI推理 网络结构图 Playwright 自动化测试 安全架构 zookeeper saltstack nfs 服务器部署ai模型 embedding SSL 域名 RAID RAID技术 磁盘 存储 rsyslog Anolis nginx安装 环境安装 linux插件下载 NFS raid5数据恢复 磁盘阵列数据恢复 DevEco Studio skynet 僵尸世界大战 游戏服务器搭建 远程控制 远程看看 远程协助 远程 执行 sshpass 操作 银河麒麟操作系统 阿里云ECS 驱动开发 硬件工程 嵌入式实习 LORA NLP 实时互动 ceph chrome devtools chromedriver 三级等保 服务器审计日志备份 v10 软件 arkUI 政务 分布式系统 监控运维 Prometheus Grafana IDE AI 原生集成开发环境 Trae AI 大模型应用 深度求索 私域 知识库 黑客技术 Linux的基础指令 gpt-3 文心一言 Cursor URL 本地部署 架构与原理 rocketmq 网络攻击模型 Kylin-Server 多个客户端访问 IO多路复用 TCP相关API 腾讯云大模型知识引擎 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? Google pay Apple pay SSE 语法 safari 系统 etcd 数据安全 RBAC 网工 历史版本 下载 压测 ECS frp ssrf 失效的访问控制 金融 seatunnel sdkman Unity Dedicated Server Host Client 无头主机 开发环境 SSL证书 报错 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 nvidia 黑苹果 xrdp 远程连接 小游戏 五子棋 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap Ubuntu 24.04.1 轻量级服务器 redhat 视觉检测 VMware创建虚拟机 性能测试 功能测试 alias unalias 别名 odoo 服务器动作 Server action 双系统 GRUB引导 Linux技巧 tidb GLIBC 能力提升 面试宝典 技术 IT信息化 cuda cudnn 崖山数据库 YashanDB springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 视频编解码 源码剖析 rtsp实现步骤 流媒体开发 直播推流 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 毕设 midjourney 相差8小时 UTC 时间 源码 netty 代码托管服务 支付 微信支付 开放平台 远程过程调用 Windows环境 混合开发 JDK regedit 开机启动 risc-v wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 自学笔记 小米 澎湃OS Android prompt IO模型 京东云 佛山戴尔服务器维修 佛山三水服务器维修 ipython 基础入门 编程 FTP服务器 状态管理的 UDP 服务器 Arduino RTOS hive Hive环境搭建 hive3环境 Hive远程模式 threejs 3D gitea gradle 干货分享 黑客工具 密码爆破 bootstrap 版本 C# MQTTS 双向认证 emqx 软考 n8n 工作流 workflow flash-attention css 联想开天P90Z装win10 Invalid Host allowedHosts 云电竞 云电脑 todesk 宕机切换 服务器宕机 g++ g++13 Cookie epoll bonding 链路聚合 压力测试 camera Arduino 电子信息 执法记录仪 智能安全帽 smarteye tailscale derp derper 中转 线性代数 电商平台 SysBench 基准测试 IDEA 互信 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 ue4 着色器 ue5 虚幻 lua 目标跟踪 OpenVINO 推理应用 Ubuntu Server Ubuntu 22.04.5 开机自启动 cursor MCP server C/S windows日志 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 transformer 移动魔百盒 idm USB转串口 CH340 Minecraft 飞牛NAS 飞牛OS MacBook Pro Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer DOIT 四博智联 thingsboard 音乐库 实用教程 H3C iDRAC R720xd freebsd anaconda mamba Vmamba bot Docker 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 XFS xfs文件系统损坏 I_O error DNS 测试用例 磁盘监控 前后端分离 游戏引擎 策略模式 单例模式 FunASR 剧本 file server http server web server iphone 进程信号 muduo CLion X11 Xming iftop 网络流量监控 生物信息学 eclipse 图像处理 make命令 makefile文件 王者荣耀 Wi-Fi curl wget Spring Security Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 mariadb Open WebUI rdp 实验 技术共享 安卓 linux 命令 sed 命令 设备 GPU PCI-Express 阻塞队列 生产者消费者模型 服务器崩坏原因 jetty undertow Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 UOS 统信操作系统 设置代理 ISO镜像作为本地源 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 SSH 服务 SSH Server OpenSSH Server Erlang OTP gen_server 热代码交换 事务语义 权限 MNN Qwen ip MacOS录屏软件 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 easyui langchain WebUI DeepSeek V3 dns是什么 如何设置电脑dns dns应该如何设置 MQTT协议 消息服务器 代码 fd 文件描述符 串口驱动 CH341 uart 485 迁移指南 飞牛nas fnos 查看显卡进程 fuser log4j llama.cpp rustdesk win服务器架设 windows server Xinference RAGFlow vr 分布式训练 bcompare Beyond Compare 模拟器 教程 ruby DocFlow mq ubuntu24 vivado24 CentOS 状态模式 免费域名 域名解析 kotlin SVN Server tortoise svn 物联网开发 Linux的权限 webstorm 嵌入式Linux IPC perl UOS1070e VS Code 李心怡 HAProxy edge浏览器 SEO deep learning 影刀 #影刀RPA# 显示管理器 lightdm gdm ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS hexo Python基础 Python教程 Python技巧 apt WLAN 中兴光猫 换光猫 网络桥接 自己换光猫 程序 性能分析 idea 实习 大模型面经 大模型学习 AnythingLLM AnythingLLM安装 单元测试 内网服务器 内网代理 内网通信 软链接 硬链接 元服务 应用上架 换源 国内源 Debian CrewAI figma rime qemu libvirt 毕昇JDK WebVM 虚拟显示器 基础环境 流水线 脚本式流水线 金仓数据库 2025 征文 数据库平替用金仓 uv can 线程池 ros 查询数据库服务IP地址 SQL Server 语音识别 tensorflow trae 并查集 leetcode 端口测试 信号处理 wpf 问题解决 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 deekseek ragflow top Linux top top命令详解 top命令重点 top常用参数 Ubuntu共享文件夹 共享目录 Linux共享文件夹 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 ssh远程登录 ubuntu20.04 ros1 Noetic 20.04 apt 安装 wsgiref Web 服务器网关接口 ABAP 浏览器开发 AI浏览器 ssh漏洞 ssh9.9p2 CVE-2025-23419 k8s集群资源管理 云原生开发 fstab 分析解读 自动化编程 proxy模式 Jellyfin 本地部署AI大模型 烟花代码 烟花 元旦 存储维护 NetApp存储 EMC存储 性能调优 安全代理 本地知识库部署 DeepSeek R1 模型 etl 信号 TrueLicense lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 java-rocketmq 做raid 装系统 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 ardunio BLE Kali 磁盘清理 react native cd 目录切换 powerpoint 环境配置 项目部署到linux服务器 项目部署过程 dity make CVE-2024-7347 autodl 实战案例 searxng Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 人工智能生成内容 镜像 DBeaver 数据仓库 kerberos web3 cfssl TCP协议 抗锯齿 产测工具框架 IMX6ULL 管理框架 neo4j 知识图谱 程序员创富 firewall IMM 智能音箱 智能家居 CDN python3.11 P2P HDLC Typore milvus linux上传下载 QT 5.12.12 QT开发环境 Ubuntu18.04 健康医疗 互联网医院 HarmonyOS spark HistoryServer Spark YARN jobhistory 数据库开发 database Redis Desktop MVS 海康威视相机 keepalived ROS sonoma 自动更新 IM即时通讯 剪切板对通 HTML FORMAT 聚类 xshell termius iterm2 yaml Ultralytics 可视化 GIS 遥感 WebGIS 大大通 第三代半导体 碳化硅 rclone AList webdav fnOS 虚拟局域网 Windows ai工具 xcode ldap 服务网格 istio 具身智能 强化学习 序列化反序列化 内网环境 h.264 OpenSSH matplotlib 软件卸载 系统清理 显卡驱动 合成模型 扩散模型 图像生成 vpn 容器技术 网卡的名称修改 eth0 ens33 jina IPv4 子网掩码 公网IP 私有IP SSH 密钥生成 SSH 公钥 私钥 生成 less 主从复制 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors cpp-httplib OpenHarmony 真机调试 sequoiaDB 防火墙 NAT转发 NAT Server Deepseek-R1 私有化部署 推理模型 捆绑 链接 谷歌浏览器 youtube google gmail composer 图形渲染 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 ArkTs iperf3 带宽测试 MacOS SRS 流媒体 直播 线程 相机 dash 正则表达式 对比 工具 meld DiffMerge c/c++ 串口 Mac内存不够用怎么办 db 开发 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 常用命令 文本命令 目录命令 prometheus数据采集 prometheus数据模型 prometheus特点 lio-sam SLAM 信创 信创终端 中科方德 glibc 用户缓冲区 模拟实现 sqlite3 css3 PX4 sentinel 考研 SenseVoice onlyoffice 在线office AI-native Docker Desktop HiCar CarLife+ CarPlay QT RK3588 yolov8 swoole Node-Red 编程工具 流编程 wps webgl cocoapods ubuntu24.04.1 fast 端口 查看 ss 我的世界 我的世界联机 数码 deployment daemonset statefulset cronjob UDP su sudo 读写锁 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 私有化 AI Agent 字节智能运维 办公自动化 自动化生成 pdf教程 rnn 加解密 Yakit yaklang arcgis triton 模型分析 MySql 服务器时间 流量运营 KylinV10 麒麟操作系统 Vmware harmonyOS面试题 iBMC UltraISO word 邮件APP 免费软件 IMX317 MIPI H265 VCU Ubuntu22.04 开发人员主页 pyautogui trea ShenTong rag ragflow 源码启动 aarch64 编译安装 HPC 运维监控 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 代理 安防软件 树莓派 VNC 域名服务 DHCP 符号链接 配置 Linux find grep 钉钉 DeepSeek r1 deepseek r1 Unity插件 OpenManus 键盘 iventoy VmWare OpenEuler 抓包工具 宝塔 粘包问题 x64 SIGSEGV xmm0 代理服务器 云桌面 微软 AD域控 证书服务器 miniapp 调试 debug 断点 网络API请求调试方法 个人博客 docker desktop image uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 xpath定位元素 bat rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 远程服务 navicat 带外管理 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 grub 版本升级 扩容 游戏开发 Attention 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 企业网络规划 华为eNSP 大模型推理 自动化任务管理 nvm whistle 推荐算法 ArtTS macOS 云耀服务器 gnu vllm docker部署Python mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 yum换源 hosts visual studio 开机黑屏 网络爬虫 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 数字证书 签署证书 沙盒 nlp 智能电视 搜狗输入法 中文输入法 HarmonyOS NEXT 原生鸿蒙 虚幻引擎 论文阅读 风扇控制软件 嵌入式系统开发 网络建设与运维 网络搭建 神州数码 神州数码云平台 云平台 服务器正确解析请求体 yolov5 CentOS Stream PPI String Cytoscape CytoHubba AI员工 拓扑图 西门子PLC 通讯 多路转接 热榜 项目部署 nosql dock 加速 js 鸿蒙开发 移动开发 MobaXterm seleium 达梦 DM8 搭建个人相关服务器 软负载 本地化部署 玩机技巧 软件分享 软件图标 渗透 kernel ranger MySQL8.0 欧标 OCPP rpa 端口聚合 windows11 解决方案 IO 极限编程 System V共享内存 进程通信 接口优化 k8s二次开发 Qwen2.5-VL conda配置 conda镜像源 MDK 嵌入式开发工具 论文笔记 sublime text docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 离线部署dify 大模型部署 稳定性 看门狗