手动部署Hadoop2分布式集群和YARN集群管理命令

一、手动部署集群

  • 安装多个节点Hadoop-YARN集群与安装单个节点(伪分布式模型)的方式类似。集群模型中,主节点的配置方式与单节点相同,除了需要将主机地址改为相应的节点地址;对于从节点来说,将主节点的安装目录直接复制到从节点,并配置好所需要的目录和环境变量即可。配置完成后,可由主节点启动整个集群,也可以手动启动各节点上的相应的服务。
    所有节点同步时间
实验环境
  • 示例有一个主节点和三个从节点的Hadoop-YARN集群。集群中所用的各节点必须有个唯一的主机名和ip地址,并能够基于主机互相通信。如果没有配合用的dns服务,这里可以通过/etc/hosts文件进行解析。
    主节点:192.168.1.60 主机名:node60
    从节点1:192.168.1.61 主机名: node61
    从节点2:192.168.1.62 主机名:node62
    从节点3:192.168.1.63 主机名:node63

1、所有节点编辑名称解析

~]# vim /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.60 node60.hehe.com node60 master
192.168.1.61 node61.hehe.com node61
192.168.1.62 node62.hehe.com node62
192.168.1.63 node63.hehe.com node63

2、所有节点安装jdk-devel并配置java环境

~]# yum install java-1.8.0-openjdk-devel -y

#设置环境变量
 ~]# vim /etc/profile.d/java.sh
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

~]# . /etc/profile.d/java.sh

#验证版本
 ~]# java -version
openjdk version "1.8.0_191"
OpenJDK Runtime Environment (build 1.8.0_191-b12)
OpenJDK 64-Bit Server VM (build 25.191-b12, mixed mode)

3、所有节点创建hadoop用户和组

~]# useradd hadoop
~]# echo '12345' | passwd --stdin hadoop

4、master主节点生成秘钥

  • 用master主节点启动和停止整个集群,还需要master节点上配置用于运行服务的用户能以秘钥认证的方式通过ssh远程连接至各从节点。
[root@node-60 ~]# su - hadoop
[hadoop@node-60 ~]$ ssh-keygen -t rsa -P ''
.........
+---[RSA 2048]----+
| oo+oo.oo.       |
|  o.. +.o+       |
| .  . ooo.o      |
|  .. = X +.      |
| .. + = S.o      |
|++   . oo=.E     |
|=.  . . .*+      |
|     . .= .o     |
|      .ooo.      |
+----[SHA256]-----+

#同步到其他节点,别忘了给自己分发
[hadoop@node-60 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub hadoop@node60
[hadoop@node-60 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub hadoop@node61
[hadoop@node-60 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub hadoop@node62
[hadoop@node-60 ~]$ ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub hadoop@node63

#测试是否成功
[hadoop@node-60 ~]$ ssh node61 'date'
Fri Mar 15 22:17:31 CST 2019

5、master主节点创建目录

[root@node-60 ~]# mkdir -pv /bdapps /data/hadoop/hdfs/{nn,snn,dn}
[root@node-60 ~]# chown -R hadoop:hadoop /data/

6、master下载安装hadoop-2.7.7

[root@node-60 ~]# wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
#解压
[root@node-60 ~]# tar xf hadoop-2.7.7.tar.gz -C /bdapps/
[root@node-60 ~]# ln -sv /bdapps/hadoop-2.7.7/ /bdapps/hadoop
‘/bdapps/hadoop’ -> ‘/bdapps/hadoop-2.7.7/’
#配置环境变量,注意hadoop3.x版本HADOOP_PREFIX全部改为HADOOP_HOME
[root@node-60 ~]# vim /etc/profile.d/hadoop.sh
export HADOOP_PREFIX=/bdapps/hadoop
export PATH=$PATH:${HADOOP_PREFIX}/bin:${HADOOP_PREFIX}/sbin
export HADOOP_YARN_HOME=${HADOOP_PRFIX}
export HADOOP_MAPPERD_HOME=${HADOOP_PRFIX}
export HADOOP_COMMON_HOME=${HADOOP_PRFIX}
export HADOOP_HDFS_HOME=${HADOOP_PRFIX}
#创建日志目录
[root@node-60 ~]# mkdir /bdapps/hadoop/logs
[root@node-60 ~]# chmod g+w /bdapps/hadoop/logs
[root@node-60 ~]# chown -R hadoop:hadoop /bdapps/hadoop/*

7、maser主节点配置hadoop

#修改core-site文件
[root@node-60 ~]# vim /bdapps/hadoop/etc/hadoop/core-site.xml 
...........
<configuration>
      <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:8020</value>   #这里填写master主机名
                <final>true</final>
      </property>
</configuration>

#修改yarn-site文件
[root@node-60 ~]# vim /bdapps/hadoop/etc/hadoop/yarn-site.xml 
.............
<configuration>
                    <property>
                        <name>yarn.resourcemanager.address</name>
                        <value>master:8032</value> 
                    </property>
                    <property>
                        <name>yarn.resourcemanager.scheduler.address</name>
                        <value>master:8030</value> 
                    </property>
                    <property>
                        <name>yarn.resourcemanager.resource-tracker.address</name>
                        <value>master:8031</value>
                    </property>
                    <property>
                        <name>yarn.resourcemanager.admin.address</name>
                        <value>master:8033</value>
                    </property>
                    <property>
                        <name>yarn.resourcemanager.webapp.address</name>
                        <value>master:8088</value> 
                    </property>
                    <property>
                        <name>yarn.nodemanager.aux-services</name>
                        <value>mapreduce_shuffle</value>
                    </property>
                    <property>
                        <name>yarn.nodemanager.auxservices.mapreduce_shuffle.class</name>
                  </property>
    </configuration>
#修改hdfs-site文件
[root@node-60 ~]# vim /bdapps/hadoop/etc/hadoop/hdfs-site.xml 
............
<configuration>
                    <property>
                        <name>dfs.replication</name>
                        <value>2</value> #副本数量2
                    </property>
                    <property>
                        <name>dfs.namenode.name.dir</name>
                        <value>file:///data/hadoop/hdfs/nn</value>
                    </property>
                    <property>
                        <name>dfs.datanode.data.dir</name>
                        <value>file:///data/hadoop/hdfs/dn</value>
                    </property>
                    <property>
                        <name>fs.checkpoint.dir</name>
                        <value>file:///data/hadoop/hdfs/snn</value>
                    </property>
                    <property>
                        <name>fs.checkpoint.edits.dir</name>
                        <value>file:///data/hadoop/hdfs/snn</value>
                    </property>
                </configuration>

#修改mapred-site文件
[root@node-60 ~]# vim /bdapps/hadoop/etc/hadoop/mapred-site.xml
..........
<configuration>
                 <property>
                        <name>mapreduce.framework.name</name>
                        <value>yarn</value>
                    </property>

</configuration>

#修改slaves文件定义从节点 ,如果是hadoop3.X版本改名叫worker文件
 ~]# vim /bdapps/hadoop/etc/hadoop/slaves 

node61
node62
node63

8、三个node从节点创建目录

 ~]# mkdir -pv /bdapps /data/hadoop/hdfs/{nn,snn,dn}
 ~]# chown -R hadoop:hadoop /data/

9、三个node从节点下载安装hadoop

 ~]# wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
#解压
~]# tar xf hadoop-2.7.7.tar.gz -C /bdapps/
 ~]# ln -sv /bdapps/hadoop-2.7.7/ /bdapps/hadoop
‘/bdapps/hadoop’ -> ‘/bdapps/hadoop-2.7.7/’

#配置环境变量,注意hadoop3.x版本HADOOP_PREFIX全部改为HADOOP_HOME
 ~]# vim /etc/profile.d/hadoop.sh
export HADOOP_PREFIX=/bdapps/hadoop
export PATH=$PATH:${HADOOP_PREFIX}/bin:${HADOOP_PREFIX}/sbin
export HADOOP_YARN_HOME=${HADOOP_PRFIX}
export HADOOP_MAPPERD_HOME=${HADOOP_PRFIX}
export HADOOP_COMMON_HOME=${HADOOP_PRFIX}
export HADOOP_HDFS_HOME=${HADOOP_PRFIX}

#创建日志目录
~]# mkdir /bdapps/hadoop/logs
 ~]# chmod g+w /bdapps/hadoop/logs
 ~]# chown -R hadoop:hadoop /bdapps/hadoop/*

10、master节点上使用hadoop用户,同步配置到三个node从节点上

[root@node-60 ~]# su - hadoop
[hadoop@node-60 ~]$ scp /bdapps/hadoop/etc/hadoop/* node61:/bdapps/hadoop/etc/hadoop/
[hadoop@node-60 ~]$ scp /bdapps/hadoop/etc/hadoop/* node62:/bdapps/hadoop/etc/hadoop/
[hadoop@node-60 ~]$ scp /bdapps/hadoop/etc/hadoop/* node63:/bdapps/hadoop/etc/hadoop/

11、格式化文件系统

  • 与伪分布式相同,在HDFS集群的NN启动之前需要初始化其用于存储数据的目录。如果hdfs-site.xml中dffs.namenode.name.dir属性指定的目录不存在,格式化命令会自动创建之;如果事先存在,要确保其权限设置正确,此时格式操作会清除其内部的所有数据并重新建立一个新的文件系统。
  • 输出结果有大量信息,如果显示“INFO common.Storage: Storage directory /data/hadoop/hdfs/nn has been successfully formatted.” 的结果表示格式化操作已然正确完成。
[root@node-60 ~]# hdfs namenode -format
#数据目录下将会生成文件
[root@node-60 ~]# ls /data/hadoop/hdfs/nn/
current
  • 注意:如果格式化失败,重新格式化时候要删除/data/hadoop/hdfs/nn/下的所有文件

12、启动集群

  • 启动Hadoop-YARN集群的方法有两种:一是在各个节点分别启动需要启动的服务,注意要使用对应的用户这里用户是hadoop,二是在master节点启动整个集群。
  • 当集群规模较大时,分别启动各个节点的各服务过于繁琐和低效,为此hadoop专门提供了start-dfs.sh和stop-dfs.sh来启动及停止整个hdfs集群,以及start-yarn.sh和stop-yarn.sh来启动及停止整个yarn集群。
[root@node-60 ~]# su - hadoop
[hadoop@node-60 ~]$ start-dfs.sh
Starting namenodes on [master]   #首先启动主节点
hadoop@master's password: 
master: starting namenode, logging to /bdapps/hadoop/logs/hadoop-hadoop-namenodenode-60.out
node61: starting datanode, logging to /bdapps/hadoop/logs/hadoop-hadoop-datanodenode-61.out
node62: starting datanode, logging to /bdapps/hadoop/logs/hadoop-hadoop-datanodenode-62.out
node63: starting datanode, logging to /bdapps/hadoop/logs/hadoop-hadoop-datanodenode-63.out
Starting secondary namenodes [0.0.0.0]
hadoop@0.0.0.0's password: 
0.0.0.0: starting secondarynamenode, logging to /bdapps/hadoop/logs/hadoop-hadoop-secondarynamenode-node-60.out

#启动yarn集群
[hadoop@node-60 ~]$ start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /bdapps/hadoop/logs/yarn-hadoop-resourcemanager-node-60.out
node63: starting nodemanager, logging to /bdapps/hadoop/logs/yarn-hadoop-nodemanager-node-63.out
node62: starting nodemanager, logging to /bdapps/hadoop/logs/yarn-hadoop-nodemanager-node-62.out
node61: starting nodemanager, logging to /bdapps/hadoop/logs/yarn-hadoop-nodemanager-node-61.out

[hadoop@node-60 ~]$ jps #查询进程是否启动
7875 Jps
7077 NameNode
7274 SecondaryNameNode
7611 ResourceManager     #出现  ResourceManager进程证明yarn集群启用成功


13、检查三个node节点是否启动

  • 出现DataNode进程证明节点启用成功,如果未出现则查询数据目录属主属组权限是否为hadoop用户。
 ~]# su - hadoop
[hadoop@node-61 ~]$ jps
8898 DataNode      #出现DataNode进程证明节点启用成功
9042 NodeManager  #出现 NodeManager进程证明yarn集群启用成功
8972 Jps

14、上传文档测试

[hadoop@node-60 ~]$ hdfs dfs -mkdir /test      #创建目录
[hadoop@node-60 ~]$ hdfs dfs -put /etc/fstab /test/fstab  #上传文件
[hadoop@node-60 ~]$ hdfs dfs -ls -R /test     #查询
-rw-r--r--   2 hadoop supergroup        465 2019-03-29 22:57 /test/fstab
  • 集群会在任意两个dataneod节点的数据目录下存储对应上传文件的数据块
  • 一个文件就是一个数据块,默认最大是64M,上传大文件时候会被切割为多个数据块
#数据存储节点一
[hadoop@node-61 ~]$ cat  /data/hadoop/hdfs/dn/current/BP-2007480771-192.168.1.60-1553870591051/current/finalized/subdir0/subdir0/blk_1073741825
# /etc/fstab
.............
#数据存储节点二
[hadoop@node-62 ~]$ cat  /data/hadoop/hdfs/dn/current/BP-2007480771-192.168.1.60-1553870591051/current/finalized/subdir0/subdir0/blk_1073741825
# /etc/fstab
.............

集群的web界面访问

存储web

15、执行任务测试

#使用示例程序统计fstab文件
[hadoop@node-60 ~]$ yarn jar /bdapps/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount /test/fstab /test/wc   

任务web

二、YARN集群管理命令

  • yarn命令有许多子命令,大体可分为用户命令和管理命令两类。直接运行yarn命令,可显示其简单的使用语法及各子命令的简单介绍
[hadoop@node-60 ~]$ yarn
格式: yarn [--config confdir] [COMMAND | CLASSNAME]

#管理命令
  resourcemanager -format-state-store   删除RM的存储
  resourcemanager                      运行 ResourceManager
  nodemanager                          运行一个 nodemanager 在每个从节点上
  timelineserver                       运行时间线服务,任务编排时候用
  rmadmin                              管理工具
  sharedcachemanager                    run the SharedCacheManager daemon
  scmadmin                              SharedCacheManager admin tools
  daemonlog                             get/set the log level for each
                                        daemon
#用户命令
  version                               显示版本号
  jar <jar>                            运行jar文件
  application                           显示应用相关信息
                                        report/kill application
  applicationattempt                显示应用相关报告
  container                             显示容器的相关信息
  node                                  显示node节点信息
  queue                                 显示队列信息
  logs                                  显示日志
  classpath                        显示java程序运行时的类加载路径或类搜索路径
  cluster                               prints cluster information

1、用户命令

用户命令为Hadoop-YARN客户端命令。这些客户端根据yarn-site.xml中的配置参数连接至YARN服务,并按需运行指定的命令。

(1)、jar命令
  • jar命令通过YARN代码运行jar文件,即向RM提交YARN应用程序,运行时候会启动RunJar类方法,检查参数列表并校验jar文件,而后展开jar文件运行。
  • 示例:运行MapReduce示例程序wordcount,统计fstab中单词统计
 ~]$ yarn jar /bdapps/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount /test/fstab /test/wc

(2)、application命令

  • 管理yarn中的各application,其中--help选项可以获取命令使用帮助,它的简要使用格式
    yarn application <options>

  • 示例 :查询有哪些application,-list选项

[hadoop@node-60 ~]$ yarn application -list -appStates=all
19/03/30 21:26:53 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.1.60:8032
Total number of applications (application-types: [] and states: [NEW, NEW_SAVING, SUBMITTED, ACCEPTED, RUNNING, FINISHED, FAILED, KILLED]):1
                Application-Id      Application-Name        Application-Type          User       Queue               State         Final-State         Progress                       Tracking-URL
application_1553872144720_0001            word count               MAPREDUCE        hadoop     default            ACCEPTED           UNDEFINED               0%                                N/A

  • 示例 :查询指定application状态,-status选项
[hadoop@node-60 ~]$ yarn application -status application_1553872144720_0001
19/03/30 21:29:16 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.1.60:8032
Application Report : 
    Application-Id : application_1553872144720_0001
    Application-Name : word count
    Application-Type : MAPREDUCE
    User : hadoop
    Queue : default
    Start-Time : 1553873531484
    Finish-Time : 0
    Progress : 0%           #进度
    State : ACCEPTED
    Final-State : UNDEFINED
    Tracking-URL : N/A
    RPC Port : -1
    AM Host : N/A
    Aggregate Resource Allocation : 161842915 MB-seconds, 79024 vcore-seconds
    Diagnostics : 

  • 示例 :结束运行中的或提交的application,-kill选项
    如果指定的application已经完成,其状态或为FINISHED、KILLED或FAILED,此信息将直接输出,否则将向ResourceManager提供kill此application的请求。
#删除指定application
[hadoop@node-60 ~]$ yarn application -kill  application_1553872144720_0001
19/03/30 21:40:11 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.1.60:8032
Killing application application_1553872144720_0001
19/03/30 21:40:12 INFO impl.YarnClientImpl: Killed application application_1553872144720_0001

#再次查询
[hadoop@node-60 ~]$ yarn application -list -appStates=all
19/03/30 21:40:21 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.1.60:8032
Total number of applications (application-types: [] and states: [NEW, NEW_SAVING, SUBMITTED, ACCEPTED, RUNNING, FINISHED, FAILED, KILLED]):1
                Application-Id      Application-Name        Application-Type          User       Queue               State         Final-State         Progress                       Tracking-URL
application_1553872144720_0001            word count               MAPREDUCE        hadoop     default              KILLED              KILLED               0%http://master:8088/cluster/app/application_1553872144720_0001

(3)、node命令

  • YARN集群有运行NodeManager进程的slave节点及运行ResourceManager的master组成。ResourceManager会记录各节点的相关信息,node子命令则通过classorg.apache.hadoop.yarn.api.records.NodeReport类的对象来格式化输出这些信息。
  • 使用格式为:yarn node <potions>
  • 示例:查询集群的node节点,-list选项,再加上-all是显示所有节点
[hadoop@node-60 ~]$ yarn node -list
19/03/30 21:50:27 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.1.60:8032
Total Nodes:3
         Node-Id         Node-State Node-Http-Address   Number-of-Running-Containers
   node-63:34547            RUNNING      node-63:8042                              0
   node-61:40811            RUNNING      node-61:8042                              0
   node-62:40608            RUNNING      node-62:8042                              0

  • 示例:显示指定node节点相关信息,-status选项
[hadoop@node-60 ~]$ yarn node -status  node-63:34547
19/03/30 21:56:46 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.1.60:8032
Node Report : 
    Node-Id : node-63:34547
    Rack : /default-rack
    Node-State : RUNNING
    Node-Http-Address : node-63:8042
    Last-Health-Update : Sat 30/Mar/19 09:55:11:112CST
    Health-Report : 
    Containers : 0
    Memory-Used : 0MB
    Memory-Capacity : 8192MB
    CPU-Used : 0 vcores
    CPU-Capacity : 8 vcores
    Node-Labels : 
(4)、logs命令
  • 用于从已完成的YARN应用程序(状态为FAILED、KILL或FINISHED)上获取日志信息。但是,如果要通过命令行查看日志,需要为YARN集群启用log-aggregation属性,在yarn-site.xml配置文件中定义yarn.log-aggregation-enable属性的值为true即可。
  • 命令格式 yarn logs -applicationId<applicationID><options>
  • 示例:
[hadoop@node-60 ~]$ yarn logs -applicationId application_1553872144720_0001

(5)、classpath命令
  • classpath命令用于显示YARN集群CLASSPATH的值
  • 示例:
hadoop@node-60 ~]$ yarn classpath
(6)、version命令
  • 用于显示当前的YARN集群中yarn程序的版本号
  • 示例
[hadoop@node-60 ~]$ yarn version
Hadoop 2.7.7
.........

2、管理命令

这几个管理命令主要用于在节点上启动相应的服务
  • resourcemanager命令:用于启动节点上的ResourceManager服务;
  • nodemanager命令:用于启动NodeManager服务;
  • timelineserver命令: 用于启动节点上的timeline服务器;
(1)、RMAdmin命令
  • rmadmin是ResourceManager的客户端程序,可用于刷新访问控制策略、调度器队列及注册到RM上的节点等。刷新之后无需重启集群服务即可生效。
  • 命令简要格式:yarn rmadmin <options>

常用选项:
-refreshQueues:重载队列的acl、状态及调用器队列;它会根据文件中的配置信息重新初始化调用器;
-refreshNodes:为RM刷新主机信息,通过读取RM节点的include和exclude文件来更新集群所需要包含或排除的节点列表;
-refreshUserToGroupsMappings:根据配置Hadoop安全组映射,通过刷新组缓存中的信息来更新用户和组之间的映射关系;
-refreshSuperUserGroupsConfiguration:刷新超级用户代理组映射,以及更新代理主机和core-site.xml配置文件中hadoop.proxyuser属性定义的代理组;
-refreshAdminAcls:根据yarn站点配置文件或默认配置文件中的yarn.admin.acl属性刷新RM的管理ACL;
-refreshServiceAcl:重载服务级别授权策略文件,而后RM将重载授权策略文件;它会检查Hadoop安全授权是否启用并为IPC Server、ApplicationMaster、Client和Resource tracker刷新ACL;

  • 示例:为RM刷新主机信息
[hadoop@node-60 ~]$ yarn rmadmin -refreshNodes
(2)、DaemonLog命令
  • 用于查看或更新RM及NM守护进程的日志级别,它会在检验管理权限通过后在内部直接连接至‘http://host:port/logLevel?log=nameservice’。
  • 命令格式:yarn daemonlog <options> args

常用选项:
-getLevel host:port name :显示指定守护进程日志级别
-getLevel host:port name level: 设置守护进程的日志级别

三、运行YARN Application过程

  • YARN Application(应用程序)可以是一个简单的shell脚本、MapReduce作业或其他任意类型的作业。需要运行Application时,客户端需要事先生成一个ApplicationMaster,而后客户端把application context提交给ResourceManager,随后RM向AM分配内存和运行application的容器。总的来说,此过程可分为六个阶段:

阶段一、Application初始化及提交;
阶段二、分配内存并启动AM;
阶段三、AM注册及资源分配;
阶段四、启动并监控容器;
阶段五、Application进度报告;
阶段六、Application运行完成;

四、利用admbari部署hadoop集群简介

1、 Ambari项目

  • Ambari 跟 Hadoop 等开源软件一样,也是 Apache Software Foundation 中的一个项目,并且是顶级项目。2018年11月为止最新的发布版本是 2.7.3。就 Ambari 的作用来说,就是创建、管理、监视 Hadoop 的集群,但是这里的 Hadoop 是广义,指的是 Hadoop 整个生态圈(例如 Hive,Hbase,Sqoop,Zookeeper 等),而并不仅是特指 Hadoop。用一句话来说,Ambari 就是为了让 Hadoop 以及相关的大数据软件更容易使用的一个工具。

2、Ambari主要特点:

提供Hadoop集群
  • Ambari提供了跨任意数量的主机安装Hadoop服务的分步向导。
  • Ambari处理群集的Hadoop服务配置。
管理Hadoop集群
  • Ambari提供集中管理,用于在整个集群中启动,停止和重新配置Hadoop服务。
监控Hadoop集群
  • Ambari提供了一个仪表板,用于监控Hadoop集群的运行状况和状态。

  • Ambari利用Ambari指标系统进行指标收集。

  • Ambari利用Ambari Alert Framework进行系统警报,并在需要您注意时通知您(例如,节点出现故障,剩余磁盘空间不足等)。

  • Ambari使应用程序开发人员和系统集成商能够使用Ambari REST API轻松将Hadoop配置,管理和监控功能集成到自己的应用程序中。

五、hadoop3.x安装遇到的问题

  • 1、报错“HADOOP_PREFIX has been replaced by HADOOP_HOME. Using value of HADOOP_PREFIX.”
    问题原因:hadoop3.x环境变量名称变更为HADOOP_HOME
    解决:修改 /etc/profile.d/hadoop.sh
 ~]# vim /etc/profile.d/hadoop.sh
export HADOOP_HOME=/bdapps/hadoop
export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
export HADOOP_YARN_HOME=${HADOOP_HOME}
export HADOOP_MAPPERD_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}

~]# unset HADOOP_PREFIX     #删除HADOOP_PREFIX变量
~]# source /etc/profile               #设置生效
~]# evn | grep -i hadoop            #查询
  • 2、设置文件定义从节点时候, hadoop3.X版本是没有(源码目录)/etc/hadoop/slaves这个文件,改名叫worker文件
 ~]# vim /bdapps/hadoop/etc/hadoop/worker 

官网地址:http://ambari.apache.org/
安装部署参考文档地址:https://cwiki.apache.org/confluence/display/AMBARI/Installation+Guide+for+Ambari+2.7.3

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 207,113评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,644评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,340评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,449评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,445评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,166评论 1 284
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,442评论 3 401
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,105评论 0 261
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,601评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,066评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,161评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,792评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,351评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,352评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,584评论 1 261
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,618评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,916评论 2 344

推荐阅读更多精彩内容