1、官网下载hadoop-2.6.5.tar.gz 安装包(下载地址:http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop- 2.6.5/hadoop-2.6.5.tar.gz),上传到虚拟机。
2、将hadoop包进行解压缩:tar -zxvf hadoop-2.6.5.tar.gz
3、修改hadoop-env.sh(告诉其java的运行环境):
编辑vim hadoop-2.6.5/etc/hadoop/hadoop-env.sh
修改export JAVA_HOME=/home/linux/java/jdk1.7.0_80
4、配置hadoop相关环境变量:
HADOOP_HOME=/home/linux/hadoop/hadoop-2.6.5
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
source /etc/profile
输入hadoop命令,显示以下命令:
修改hadoop-2.6.5/etc/hadoop/core-site.xml文件:
#所有节点都需添加此配置
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
hdfs系统会把用到的数据存储在core-site.xml中由hadoop.tmp.dir指定,而这个值默认位于/tmp/hadoop-${user.name}下面,
由于/tmp目录在系统重启时候会被删除,所以应该修改目录位置。 修改core-site.xml(在所有站点上都修改)
<property>
<name>hadoop.tmp.dir</name>
<value>/var/hadoop</value>
</property>
执行命令:hdfs namenode -format
--格式化namenode数据存储目录
创建hadoop/data
目录
修改hadoop-2.6.5/etc/hadoop/hdfs-site.xml文件:
#指定数据存储目录
#master站点配置
<property>
<name>dfs.name.dir</name>
<value>/home/linux/tools/hadoop/data/namenode</value>
</property>
slave所有节点配置
<property>
<name>dfs.data.dir</name>
<value>/home/linux/tools/hadoop/data/datanode</value>
</property>
<property>
所有站点都配置
<name>dfs.tmp.dir</name>
<value>/home/linux/tools/hadoop/data/tmp</value>
</property>
#指定数据备份数
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
hadoop集群启动命令:
namenode执行命令:
hadoop-daemon.sh start namenode
--启动namenode
datenode执行命令:
hadoop-daemon.sh start datenode
--启动datenode
执行命令:jps #查看启动进程
hadoop集群关闭命令:
namenode执行命令:
hadoop-daemon.sh stop namenode
--关闭namenode
datenode执行命令:
hadoop-daemon.sh stopdatenode
--关闭datenode
--关闭防火墙,命令:systemctl stop firewalld
hadoop集群web监控界面访问地址:http://master:50070
hadoop集群统一管理配置:
修改master节点下/hadoop/etc/hadoop/slaves文件:
vim /hadoop/etc/hadoop/slaves
添加datanode:
node1
node2
node3
在master上执行命令:
start-dfs.sh #启动整个集群
(备注:建议对集群配置免密登录(配置方法://www.greatytc.com/p/e3308b9c3fbe);
因为默认启动会远程登录到每个节点上进行启动,包括自身主节点,如果未配置则每次要手动输入每台登录的密码。)
stop-dfs.sh #关闭整个集群