Hadoop集群搭建

https://www.zybuluo.com/DFFuture/note/626899

1.查看 hostname

修改主机名 sudo gedit /etc/hostname

重启 reboot

2.编辑host sudo gedit /etc/hosts

删除127.0.1.1那一行,并添加:

192.168.86.140 ubuntu1

192.168.86.143 ubuntu2

192.168.86.144 ubuntu3

ping hadoop01、hadoop02、hadoop03看是否能

3.安装openssh-server sudo apt-get install -y openssh-server

4.生成ssh目录 ssh localhost

在ssh目录下 cd ~./ssh

生成密钥 ssh-keygen -t rsa -P "" 一直按回车即可

将公钥添加到autorized_keys cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

5.将公钥传输到其他节点

scp ~/.ssh/id_rsa.pub edward@hadoop02:~

scp ~/.ssh/id_rsa.pub edward@hadoop03:~

进入hadoop02、hadoop03目录

将id_rea.pub的内容添加进入authorized_keys

cat ~/id_rsa.pub >> ~/.ssh/authorized_keys

删除已经添加的id_rsa.pub

rm -rf id_rsa.pub

如果ssh hadoop01、ssh hadoop02、ssh hadoop03都能无密登陆,即配置ssh成功

无法传输问题:

修改/etc/ssh/ssh_config

在最后添加2行:

StrictHostKeyChecking no
UserKnownHostsFile /dev/null

6.下载 hadoop hadoop-2.7.7.tar.gz

解压到 /usr/local/hadoop

7.配置环境变量 gedit ~/.bashrc

添加

HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7

PATH添加:

$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source ~/.bashrc hadoop version

8.集群/分布式模式需要修改 /usr/local/hadoop/hadoop-2.7.7/etc/hadoop 中的5个配置文件,

8.1 slaves (配置DataNode主机)

写入 :

hadoop01

hadoop02

hadoop03

8.2 core-site.xml (基础配置)

写入:

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadoop02:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/local/hadoop/tmp</value>

</property>

<property>

<name>fs.trash.interval</name>

<value>10080</value>

</property>

</configuration>

8.3 hdfs-site.xml (HDFS配置)
写入:

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.permissions.enabled</name>

<value>false</value>

</property>

<property>

<name>dfs.namenode.http-address</name>

<value>hadoop02:50070</value>

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>hadoop03:50090</value>

</property>

</configuration>

8.4 mapred-site.xml (MapReduce配置)

复制重命名mapred-site.xml.template cp mapred-site.xml.template mapred-site.xml

写入:

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>hadoop02:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>hadoop02:19888</value>

</property>

<property>

<name>mapreduce.job.ubertask.enable</name>

<value>true</value>

</property>

</configuration>

8.5 yarn-site.xml (Yarn配置)

写入:

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop01</value>

</property>

<property>

<name>yarn.web-proxy.address</name>

<value>hadoop01:8888</value>

</property>

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

</configuration>

9.格式化nameNode hadoop namenode -format

异常问题可以添加权限 sudo chmod 777 / usr /local/ hadoop /tmp/

10.将hadoop 复制到其他主机中

scp -r /local/hadoop hadoop@hadoop02:/local/

scp -r /local/hadoop hadoop@hadoop03:/local/

启动

11.hadoop02 /sbin 启动dfs和jobhistory

start-dfs.sh

mr-jobhistory-daemon.sh start historyserver

12.Hadoop01 /sbin 启动yarn和防护进程

start-yarn.sh

yarn-daemon.sh start proxyserver

13.网址

Yarn:192.168.86.136:8088

HDFS:192.168.86.137:50070

关闭

14. hadoop01 /sbin 关闭yarn

stop-yarn.sh

15 hadoop02 /sbin 关闭hdfs和jobhistory

stop-dfs.sh

mr-jobhistory-daemon.sh stop historyserver

报错:

JAVA_HOME is not set and could not be found

https://blog.csdn.net/lxpbs8851/article/details/45225171

$HADOOP_HOME/etc/hadoop/yarn-env.sh 中添加

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_191

$HADOOP_HOME/libexec/hadoop-config.sh 中添加

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_191
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 227,533评论 6 531
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 98,055评论 3 414
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 175,365评论 0 373
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 62,561评论 1 307
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 71,346评论 6 404
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 54,889评论 1 321
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 42,978评论 3 439
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 42,118评论 0 286
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 48,637评论 1 333
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 40,558评论 3 354
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 42,739评论 1 369
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 38,246评论 5 355
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 43,980评论 3 346
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 34,362评论 0 25
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 35,619评论 1 280
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 51,347评论 3 390
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 47,702评论 2 370

推荐阅读更多精彩内容

  • 本文用以记录hadoop分布式集群搭建过程 基础环境准备 1、软件环境 centos 6.5 三台服务器分配的IP...
    远方的猫dj阅读 989评论 0 2
  • 目录 集群简介 服务器准备 环境和服务器设置 JDK环境安装 Hadoop安装部署 启动集群 测试 集群简介 在进...
    Singer_Au阅读 2,738评论 0 8
  • 1.准备Linux环境 1.0先将虚拟机的网络模式选为NAT 1.1修改主机名 vi /etc/sysconfig...
    NickYS阅读 522评论 1 50
  • 一、系统参数配置优化 1、系统内核参数优化配置 修改文件/etc/sysctl.conf,添加如下配置,然后执行s...
    张伟科阅读 3,766评论 0 14
  • hadoop集群HA环境搭建 准备工具 VMware12安装包, 破解序列号:5A02H-AU243-TZJ49-...
    485b1aca799e阅读 2,144评论 1 1