hadoop搭建笔记

1.创建模板服务器

先在虚拟机创建hadoop100这个模板服务器

本次安装使用CENTOS7.5

先设置时间和最小化安装


c磁盘分区安装



然后设置KDUMP和网络


p配置root用户和hadoop用户


a. 配置hosts

hadoop100 192.168.204.100

hadoop102 192.168.204.102

hadoop103 192.168.204.103

hadoop104 192.168.204.104

b. 安装 epel-release

yum install -y epel-release

c 关闭防火墙,关闭防火墙开机自启

systemctl stop firewalld

systemctl disable firewalld

d. 配置 hadoop 用户具有 root 权限,方便后期加 sudo 执行 root 权限的命令

vi /etc/sudoers

在%wheel 这行下面添加一行

hadoop ALL=(ALL) NOPASSWD:ALL

wq!   强制保存

e. 使用hadoop用户创建moduel 和software目录

[hadoop@hadoop100 ~]$ mkdir moduel

[hadoop@hadoop100 ~]$ mkdir software

f.上传jdk和hadoop安装包至software

g. 安装jdk

$ tar -xvzf jdk-8u291-linux-i586.tar.gz -C /home/hadoop/moduel/

配置 JDK 环境变量

新建/etc/profile.d/my_env.sh 文件

$ sudo vi /etc/profile.d/my_env.sh

添加如下内容

#JAVA_HOME

export JAVA_HOME=/home/hadoop/moduel/jdk1.8.0_291

export PATH=$PATH:$JAVA_HOME/bin

保存后退出

:wq

source 一下/etc/profile 文件,让新的环境变量 PATH 生效

$ source /etc/profile

检查是否成功,遇到如下错误

 [hadoop@hadoop100 software]$ java

-bash: /home/hadoop/moduel/jdk1.8.0_291/bin/java: /lib/ld-linux.so.2: bad ELF interpreter: No such file or directory

安装一个包就可以解决

sudo yum install glibc.i686

h.安装hadoop

$ tar -xvzf hadoop-3.2.2.tar.gz -C /home/hadoop/moduel/

将 Hadoop 添加到环境变量

$ sudo vi /etc/profile.d/my_env.sh

#HADOOP_HOME

export HADOOP_HOME=/home/hadoop/moduel/hadoop-3.2.2

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

source一下

查看一下HADOOP目录

(1)bin 目录:存放对 Hadoop 相关服务(hdfs,yarn,mapred)进行操作的脚本

(2)etc 目录:Hadoop 的配置文件目录,存放 Hadoop 的配置文件

(3)lib 目录:存放 Hadoop 的本地库(对数据进行压缩解压缩功能)

(4)sbin 目录:存放启动或停止 Hadoop 相关服务的脚本

(5)share 目录:存放 Hadoop 的依赖 jar 包、文档、和官方案例


i 配置rsync

sudo yum install -y rsync

j 配置xsync

mkdir  -p /home/hadoop/bin

vi xsync

#!/bin/bash

if [ $# -lt 1 ]

then

echo Not Enough Arguement!

exit;

fi

for host in hadoop102 hadoop103 hadoop104

do

echo ==================== $host ====================

for file in $@

do

if [ -e $file ]

then

pdir=$(cd -P $(dirname $file); pwd)

fname=$(basename $file)

ssh $host "mkdir -p $pdir"

rsync -av $pdir/$fname $host:$pdir

else

echo $file does not exists!

fi

done

done

添加执行权限

chmod +x xsync


k. 克隆出hadoop102 103 104三台主机,然后修改ip地址和hostname,之后才进行下一步,ssh免密登录。

l. 配置ssh 免密登录

[root@hadoop100 ~]# su - hadoop

[hadoop@hadoop100 ~]$ ssh-keygen -t rsa

三个回车

ssh-copy-id hadoop102

如果不通,重建hosts文件

所有节点都做这个操作

l.正式开始配置hadoop参数

自定义参数路径为$HADOOP_HOME/etc/hadoop


vi core-site.xml

<!-- 指定 NameNode 的地址 -->

<property>

  <name>fs.defaultFS</name>

  <value>hdfs://hadoop102:8020</value>

</property>

<!-- 指定 hadoop 数据的存储目录 -->

<property>

  <name>hadoop.tmp.dir</name>

  <value>/home/hadoop/moduel/hadoop-3.2.2/data</value>

</property>

<!-- 配置 HDFS 网页登录使用的静态用户为 atguigu -->

<property>

<name>hadoop.http.staticuser.user</name>

<value>hadoop</value>

</property>


vi hdfs-site.xml

<!-- nn web 端访问地址-->

<property>

<name>dfs.namenode.http-address</name>

<value>hadoop102:9870</value>

</property>

<!-- 2nn web 端访问地址-->

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>hadoop104:9868</value>

</property>

vi mapred-site.xml

<!-- 指定 MapReduce 程序运行在 Yarn 上 -->

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

最后配置workers

hadoop102

hadoop103

hadoop104


最后的最后,同步到集群上

xsync /home/hadoop/moduel/hadoop-3.2.2/etc/hadoop

这时候就可以启动集群了,先把hadoop100关掉,这个时候hadoop100就是模板机了,以后需要更多的服务器的时候,就可以克隆105 106 107出来,当然到时候还要继续配Hostname ssh IP.

-----------

启动集群

1 初始化

hadoop102上

hdfs namenode -format

然后启动hdfs

$HADOOP_HOME/sbin/start-dfs.sh

这个时候报错

Java HotSpot(TM) Client VM warning: You have loaded library /home/hadoop/moduel/hadoop-3.2.2/lib/native/libhadoop.so.1.0.0 which might have disabled stack guard. The VM will try to fix the stack guard now.

It's highly recommended that you fix the library with 'execstack -c <libfile>', or link it with '-z noexecstack'.

在etc/hadoop/目录中的 hadoop-env.sh和yarn-env.sh 这两个文件中添加如下两行代码:

export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"


还有个warnning,2021-07-14 14:45:18,511 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

这么解决

vi /home/hadoop/moduel/hadoop-3.2.2/etc/hadoop/log4j.properties

增加

log4j.logger.org.apache.hadoop.util.NativeCodeLoader=ERROR


在配置了 ResourceManager 的节点(hadoop103)启动 YARN

$HADOOP_HOME/sbin/start-yarn.sh

集群启动完毕

(4)Web 端查看 HDFS 的 NameNode

(a)浏览器中输入:http://hadoop102:9870

(b)查看 HDFS 上存储的数据信息

(5)Web 端查看 YARN 的 ResourceManager

(a)浏览器中输入:http://hadoop103:8088

(b)查看 YARN 上运行的 Job 信息

添加历史服务器

vi mapred-site.xml

增加以下内容:

<!-- 历史服务器端地址 -->

<property>

<name>mapreduce.jobhistory.address</name>

<value>hadoop102:10020</value>

</property>

<!-- 历史服务器 web 端地址 -->

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>hadoop102:19888</value>

</property>

配置历史日志聚集:

vi yarn-site.xml

<!-- 开启日志聚集功能 -->

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<!-- 设置日志聚集服务器地址 -->

<property>

<name>yarn.log.server.url</name>

<value>http://hadoop102:19888/jobhistory/logs</value>

</property>

<!-- 设置日志保留时间为 7 天 -->

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

编写集群启动脚本

cd 

cd bin

vi myhadoop

#!/bin/bash

if [ $# -lt 1 ]

then

echo "No Args Input..."

exit ;

fi

case $1 in

"start")

echo " =================== starting hadoop cluster ==================="

ssh hadoop102 "/home/hadoop/moduel/hadoop-3.2.2/sbin/start-dfs.sh"

ssh hadoop103 "/home/hadoop/moduel/hadoop-3.2.2/sbin/start-yarn.sh"

ssh hadoop102 "/home/hadoop/moduel/hadoop-3.2.2/bin/mapred --daemon start historyserver"

;;

"stop")

echo " =================== stopping hadoop cluster ==================="

ssh hadoop102 "/home/hadoop/moduel/hadoop-3.2.2/bin/mapred --daemon stop historyserver"

ssh hadoop103 "/home/hadoop/moduel/hadoop-3.2.2/sbin/stop-yarn.sh"

ssh hadoop102 "/home/hadoop/moduel/hadoop-3.2.2/sbin/stop-dfs.sh"

;;

*)

echo "Input Args Error..."

;;

esac

chmod +x myhadoop

配置集群JPS查看脚本

cd

cd bin

vi jpsall

#!/bin/bash

for host in hadoop102 hadoop103 hadoop104

do

echo =============== $host ===============

ssh $host jps

done

chmod +x jpsall

终于配置好了

分发给所有服务器

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 222,627评论 6 517
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 95,180评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 169,346评论 0 362
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 60,097评论 1 300
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 69,100评论 6 398
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,696评论 1 312
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 41,165评论 3 422
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 40,108评论 0 277
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,646评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,709评论 3 342
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,861评论 1 353
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,527评论 5 351
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,196评论 3 336
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,698评论 0 25
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,804评论 1 274
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,287评论 3 379
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,860评论 2 361

推荐阅读更多精彩内容