大数据环境部署(一)

1.软件版本

软件 版本号
jdk 1.8.x
scala Scala 2.11.12
zookeeper 3.4.10
kafka 2.11_0.11.0.1
hadoop 2.6.5
spark 2.3 spark-2.3.0-bin-hadoop2.6.tgz
storm 1.2.1

2.系统环境

演示安装环境如下:

五台系统centos7 linux机,主机名称和分布为:

192.168.139.136 hadoop001
192.168.139.135 hadoop002
192.168.139.137 hadoop003
192.168.139.138 hadoop004
192.168.139.139 hadoop005

每个机器安装软件内容
hadoop001 jdk scala hadoop spark storm
hadoop002 jdk scala hadoop spark storm
hadoop003 jdk scala zookeeper kafka hadoop spark storm
hadoop004 jdk scala zookeeper kafka hadoop spark storm
hadoop005 jdk scala zookeeper kafka hadoop spark storm

##root 用户下 修改主机名称 vi /etc/hostname 或者

hostnamectl set-hostname Hadoop001

2.1创建用户

安装、运维及监控皆需使用hadoop用户。

root用户下执行如下命令进行添加hadoop用户。

useradd hadoop

passwd hadoop (输入两遍密码)

或者使用一条命令直接给用户添加密码

echo hadoop_password \| passwd --stdin hadoop

开发用户可选用其他新建用户。

echo test\| passwd --stdin test

2.2 hosts映射

Linux系统在向DNS服务器发出域名解析请求之前会查询/etc/hosts文件,如果里面有相应的记录,就会使用hosts里面的记录。/etc
/hosts文件通常里面包含这一条记录。

root用户下进行操作。

修改五台机器的 /etc/hosts文件

#第一列为IP地址,后面每列皆为ip地址的hostname别名

vi /etc/hosts

image.png

2.3 关闭防火墙

root用户下操作。

1.关闭防火墙服务

service iptables stop

2.设置防火墙服务器开机不自动启动

chkconfig iptables off

Centos7版本的防火墙服务有iptables还有firewalld

*systemctl stop firewalld \#\#关闭防火墙*

*firewall-cmd --state \#\#查看状态*

*systemctl disabled firewalld*

*如果关闭防火墙的话 这两个服务都得关闭掉*

2.4 配置ssh集群免密

Hadoop用户下:

步骤1:root下修改文件:vi /etc/ssh/ssh_config

在文件中添加或修改如下信息: StrictHostKeyChecking no


9c89872cbabc53b90a8e863f9d5bfdaf.png

步骤2: 以下操作都在hadoop用户下用 ssh-key-gen 在本地主机上创建公钥和密钥

所有主机分别执行

ssh-keygen

点击三次回车


89d9130d37b666de0c583f35d6961dfb.png

步骤3: 用 ssh-copy-id 把公钥复制到远程主机上

所有主机分别执行

ssh-copy-id hadoop\@hadoop001

ssh-copy-id hadoop\@hadoop002

ssh-copy-id hadoop\@hadoop003

ssh-copy-id hadoop\@hadoop004

ssh-copy-id hadoop\@hadoop005
5555a154743fc5c6e3acb5d4e57a5891.png

步骤4: 直接登录远程主机
测试 ssh Hadoop005

[图片上传失败...(image-8e419a-1541662131260)]

3.安装部署

1.创建目录

mkdir -p /opt/wsqt/core -- 软件程序位置

mkdir -p /opt/wsqt/log -- 日志位置

mkdir -p /opt/wsqt/data -- 数据位置

目录树如下:

/opt/wsqt/

|----------conf/

|-----wsqt_env ##(hadoop集群相关环境变量文件)

|----------core/

|-----hadoop ## (hdfs与yarn目录)

|-----hbase ## (hbase目录)

|-----jdk ## (java目录)

|-----spark ## (spark目录)

|-----zookeeper ## (zookeeper目录)

|-----storm ## (storm目录)

|----------data/

|-----journal ##(journalnode服务存放的数据目录,同步主备节点namenode数据)

|-----namenode ##(namenode服务存放的数据目录,其他临时数据的默认目录)

|-----yarn ##(yarn执行job任务时临时数据目录)

|-----storm ##(storm临时数据目录)

|-----zookeeper ##(zookeeper数据目录)

|----------logs/ ##(日志文件目录)

|-----hadoop

|-----yarn

|-----zookeeper

|-----hbase

|-----spark

|-----storm

2.更改权限

chown -R hadoop:hadoop /opt/wsqt

##由于集群内所有的节点上都需要安装,但是配置文件基本都是一样的,所以可以在一台服务器上把配置文件修改完毕,然后压缩打包传至其他服务器,再根据各个服务器的实际情况略作修改。

3.环境变量

##此步必须在所有集群服务器都已存在软件包之后设置,否则环境变量重载的时候会出问题。切记!。

/home/hadoop/.bash_profile ##对应login-bash

/home/hadoop/.bashrc ##对应nologin-bash

vi \~/.bash\_ profile

# .bash_profile # Get the aliases and functions if [ -f ~/.bashrc ]; then . ~/.bashrc fi # User specific environment and startup programs PATH=$PATH:$HOME/.local/bin:$HOME/bin export PATH #set JAVA_HOME export JAVA_HOME=/opt/wsqt/core/java export ZOOKEEPER_HOME=/opt/wsqt/core/zookeeper export KAFKA_HOME=/opt/wsqt/core/kafka export REDIS_HOME=/opt/wsqt/core/redis export HADOOP_HOME=/opt/wsqt/core/hadoop export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native" export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export SCALA_HOME=/opt/wsqt/core/scala export SPARK_HOME=/opt/wsqt/core/spark export STORM_HOME=/opt/wsqt/core/storm export PATH=$KAFKA_HOME/bin:$STORM_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$SCALA_HOME/bin:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$REDIS_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HO ME/sbin:$PATH

~

~

JDK安装

1下载

http://www.oracle.com/technetwork/java/javaee/downloads/index.html

2 查看版本

java -version

如果显示:

openjdk version "1.8.0_102"
OpenJDK Runtime Environment (build 1.8.0_102-b14)
OpenJDK 64-Bit Server VM (build 25.102-b14, mixed mode)

3检测jdk安装包

0778d64bcbe5d0e12501a715e47322d3.png

4卸载 对应OpenJDK版本

rpm -e --nodeps tzdata-java-2016g-2.el7.noarch

rpm -e --nodeps java-1.7.0-openjdk-1.7.0.111-2.6.7.8.el7.x86_64

rpm -e --nodeps java-1.7.0-openjdk-headless-1.7.0.111-2.6.7.8.el7.x86_64

rpm -e --nodeps java-1.8.0-openjdk-1.8.0.102-4.b14.el7.x86_64

rpm -e --nodeps java-1.8.0-openjdk-headless-1.8.0.102-4.b14.el7.x86_64

5安装

mkdir -p /opt/wsqt/core/java

tar -zxvf jdk-8u131-linux-x64.tar.gz -C /opt/wsqt/core/java

6 设置环境变量

参考 3.环境变量配置

7 执行profile文件

source /etc/profile

8 检查新装jdk

Scala安装

1 下载

地址https://www.scala-lang.org/download/2.11.12.html

4e7f2da92e942c34721b91f0b8ad108a.png

2 安装

mkdir -p /opt/wsqt/core/scala

tar -zxvf
scala-2.11.12.tgz
-C /opt/wsqt/core/scala

3 给执行文件授权

如出现

4e12bfe17499adb3fa3e5486091458c8.png

chmod 755 /opt/wsqt/core/scala/bin/\*

4 检查

53eaba795926024f367be24970bd696f.png

zookeeper安装

1下载

地址https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/

2 解压

mkdir -p /opt/wsqt/core/zookeeper

tar -zxvf zookeeper-3.4.10.tar.gz -C /opt/wsqt/core/zookeeper

3 修改配置文件

cd zookeeper/conf

cp zoo_sample.cfg zoo.cfg

vi zoo.cfg

添加内容如下:

tickTime=4000 initLimit=20 syncLimit=10 ##这个目录存放zookeeper的数据,以及myid配置文件。此目录若没有则必须手动创建。 dataDir=/opt/wsqt/data/zookeeper clientPort=2181 server.1=hadoop003:2888:3888 server.2=hadoop004:2888:3888 server.3=hadoop005:2888:3888

4 创建文件夹并添加myid文件

mkdir -p /opt/wsqt/data/zookeeper

mkdir -p /opt/wsqt/log/zookeeper

5 在data文件夹下新建myid文件,myid的文件内容为:

Hadoop003机器上

echo '1' \> /opt/wsqt/data/zookeeper/myid

添加内容:

1

6 将集群下发到其他机器上

scp -r /opt/wsqt/core/zookeeper hadoop\@hadoop004: /opt/wsqt/core/

scp -r /opt/wsqt/core/zookeeper hadoop\@hadoop005: /opt/wsqt/core/

修改其他机器的配置文件

到hadoop004上:修改myid为:2

到hadoop005上:修改myid为:3

7 启动(每台机器)

zkServer.sh start

8 查看集群状态

  1. jps(查看进程)

  2. zkServer.sh status(查看集群状态,主从信息)

49a12b1b91b0c0580e6d53c8b0e6a3cf.png
3861c2ae5cd1e0fc851489ab7bfc262d.png

部署为三篇:

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,686评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,668评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,160评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,736评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,847评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,043评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,129评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,872评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,318评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,645评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,777评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,470评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,126评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,861评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,095评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,589评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,687评论 2 351

推荐阅读更多精彩内容

  • Spark SQL, DataFrames and Datasets Guide Overview SQL Dat...
    草里有只羊阅读 18,307评论 0 85
  • 终极算法 关注微信号每天收听我们的消息终极算法为您推送精品阅读 前言 Hadoop 在大数据技术体系中的地位至关...
    Yespon阅读 129,780评论 12 168
  • 1,什么时间,发生了一件什么事情? 今年发生一件很意外的事情,那就是关于我在职场升职的问题。 2.什么原因导...
    李淑窈阅读 188评论 0 0
  • 如果一切可以计划 那么 哪里会有惊喜 如果一切可以逃避 那么 哪里会有烦忧 如果一切可以预料 那么 哪里会知道 我...
    读娘阅读 350评论 0 0
  • 最后我才明白,旅馆里终究只能住着旅客,别人说的长厢厮守、浓浓烈烈,终究只能在远方。 “如果你愿意,请在我的耳朵上旅...
    知骤暖阅读 459评论 1 3