小集群的搭配

1.下载

地址://www.trieuvan.com/apache/hadoop/common/

2.解压

3.配置hadoop环境变量


 gedit  ~/.bashrc

export JAVA_HOME=/home/yanghaidong123123/桌面/jdk1.8.0_77

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:$

{JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=$

{JAVA_HOME}/bin:$PATH

export SCALA_HOME=/home/yanghaidong123123/桌面/scala-2.11.8

export PATH=$

{SCALA_HOME}/bin:$PATH

export HADOOP_INSTALL=/home/yanghaidong123123/桌面/hadoop

export PATH=$PATH:$HADOOP_INSTALL/bin

export PATH=$PATH:$HADOOP_INSTALL/sbin

export HADOOP_MAPRED_HOME=$HADOOP_INSTALL

export HADOOP_COMMON_HOME=$HADOOP_INSTALL

export HADOOP_HDFS_HOME=$HADOOP_INSTALL

export YARN_HOME=$HADOOP_INSTALL


配置core-site.xml

加入:

fs.defaultFS

hdfs://master:9000

io.file.buffer.size

131072

hadoop.tmp.dir

/home/yanghaidong123123/桌面/tmp

Abase for other temporary directories.

hadoop.proxyuser.hduser.hosts

*

hadoop.proxyuser.hduser.groups

*


配置yarn-site.xml加入:

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.nodemanager.aux-services.mapreduce.shuffle.class

org.apache.hadoop.mapred.ShuffleHandler

yarn.resourcemanager.address

master:8032

yarn.resourcemanager.scheduler.address

master:8030

yarn.resourcemanager.resource-tracker.address

master:8031

yarn.resourcemanager.admin.address

master:8033

yarn.resourcemanager.webapp.address

master:8088


配置mapred-site.xml加入

mapreduce.framework.name

yarn

mapreduce.jobhistory.address

master:10020

mapreduce.jobhistory.webapp.address

master:19888

配置hdfs-site.xml

dfs.namenode.secondary.http-address

master:9001

dfs.namenode.name.dir

file:/hdfs/namenode

dfs.datanode.data.dir

file:/hdfs/datanode

dfs.replication

3

dfs.webhdfs.enabled

true


格式化namenode(在hadoop根目录下)

  hadoop namenode -format


启动  : start-all.sh

通过jps和hadoop dfsadmin -report查看状态

终止stop

1.下载spark1.0.2- bin- hadoop2 

官网:www.spark.apache.org/downloads.html

2.解压到tar -xzvf spark-1.0.2-bin-hadoop2.tgz -C /usr/local

3.改变属性:chown -R hadoop:hadoop spark-1.0.2/

4.改名:mvspark-env.sh.template spark-env.sh

           mvspark-1.0.2-bin-hadoop2/ spark-1.0.2

5.配置环境变量:根目录下/usr/local/spark-1.0.2/conf

6.配置conf/spark-env.sh

export JAVA_HOME=/home/yanhaidong123123/桌面/jdk1.8.0_77

exportSCALA_HOME=/home/yanghaidong123123/桌面/scala-2.11.8

export HADOOP_HOME=/usr/local/hadoop

export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop

export SPARK_WORKER_MEMORY=512M

export SPARK_MASTER_IP=master

export MASTER=spark://master:7077

7.

参数设置

#set java

export JAVA_HOME=/home/spark/opt/jdk1.7.0_79

export JRE_HOME=$JAVA_HOME/jre

export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib

export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

#set scala

export SCALA_HOME=/home/spark/opt/scala-2.10.4

export PATH=$SCALA_HOME/bin:$PATH

#set hadoop

export HADOOP_HOME=/home/spark/opt/hadoop-2.6.0

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

export HADOOP_MAPRED_HOME=$HADOOP_HOME

export HADOOP_COMMON_HOME=$HADOOP_HOME

export HADOOP_HDFS_HOME=$HADOOP_HOME

export YARN_HOME=$HADOOP_HOME

#set spark

export SPARK_HOME=/home/spark/opt/spark-1.5.0

export PATH=$SPARK_HOME/bin:$PATH

hadoop2.6.0版本集群环境搭建 - stark_summer的专栏 - 博客频道 - CSDN.NET

//www.open-open.com/lib/view/open1435217148153.html

//blog.csdn.net/stark_summer/article/details/42424279

spark

//blog.csdn.net/stark_summer/article/details/43495623

注意

更改hadoop目录文件所有者

在/etc/profile 添加HADOOP_HOME和PATH

修改/etc/hostname  和/etc/hosts

配置 mapred-env.sh文件-->修改JAVA_HOME(与本机java安装目录一致)

配置 hadoop-env.sh文件-->修改JAVA_HOME(与本机java安装目录一致)

(在hadoop-env.sh中添加exportHADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native")

配置 yarn-env.sh 文件-->>修改JAVA_HOME(与本机java安装目录一致)

在hadoop安装目录下新建目录dfs和tmp

在dfs下新建目录name和data

在hadoop-env.sh添加

export JAVA_HOME=/home/spark/opt/jdk1.7.0_79

exportHADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"

masters 文件可以从slaves复制得到

masters中只有master

slaves中有slave1 slave2 slave3...

mapred-site.xml可以从mapred-site.xml.template复制得到

配置core-site.xml

增加hadoop核心配置(hdfs文件端口是9000、file:/home/spark/opt/hadoop-2.6.0/tmp)

  fs.defaultFS

  hdfs://master:9000

  io.file.buffer.size

  131072

  hadoop.tmp.dir

  file:/home/spark/opt/hadoop-2.6.0/tmp

  Abasefor other temporary directories.

  hadoop.proxyuser.spark.hosts

  *

  hadoop.proxyuser.spark.groups

  *

配置  hdfs-site.xml文件-->>增加hdfs配置信息(namenode、datanode端口和目录位置)

  dfs.namenode.secondary.http-address

  master:9001

  dfs.namenode.name.dir

  file:/home/spark/opt/hadoop-2.6.0/dfs/name

  dfs.datanode.data.dir

 file:/home/spark/opt/hadoop-2.6.0/dfs/data()

  dfs.replication

  3

  dfs.webhdfs.enabled

  true

配置  mapred-site.xml文件-->>增加mapreduce配置(使用yarn框架、jobhistory使用地址以及web地址)

  mapreduce.framework.name

   yarn

  mapreduce.jobhistory.address

  master:10020

  mapreduce.jobhistory.webapp.address

  master:19888

配置   yarn-site.xml 文件-->>增加yarn功能

  yarn.nodemanager.aux-services

   mapreduce_shuffle

  yarn.nodemanager.aux-services.mapreduce.shuffle.class

  org.apache.hadoop.mapred.ShuffleHandler

  yarn.resourcemanager.address

   master:8032

  yarn.resourcemanager.scheduler.address

   master:8030

  yarn.resourcemanager.resource-tracker.address

   master:8031

  yarn.resourcemanager.admin.address

   master:8033

  yarn.resourcemanager.webapp.address

   master:8088

复制hadoop到其他节点

sudo scp -r hadoop slave1@IP:/tmp

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,386评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,142评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,704评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,702评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,716评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,573评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,314评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,230评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,680评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,873评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,991评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,706评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,329评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,910评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,038评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,158评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,941评论 2 355

推荐阅读更多精彩内容

  • 一、系统参数配置优化 1、系统内核参数优化配置 修改文件/etc/sysctl.conf,添加如下配置,然后执行s...
    张伟科阅读 3,752评论 0 14
  • --------"道路是曲折的,前途是光明的。"最近又涉及到了hadoop以及spark的安装,之前课题设计中有要...
    九七学姐阅读 3,046评论 3 5
  • 之前的有点忘记了,这里在云笔记拿出来再玩玩.看不懂的可以留言 大家可以尝试下Ambari来配置Hadoop的相关环...
    HT_Jonson阅读 2,960评论 0 50
  • 熬了一碗温柔的汤 下肚
    天野丢阅读 165评论 1 0
  • 绿波滚滚暖风吹,心清气爽踏青人。拍不够声平好景色,日渐西沉未思回。
    邵钧阅读 195评论 0 0