Hadoop 集群---系统层面调优

(1)避免使用 swap 分区

swap 分区指的系统的物理内存不够用的时候,把物理内存中的一部分空间释放 出来,以供当前运行的程序使用。

通过 vm.swappiness 参数控制,值阈为 0 ~ 100,值越高说明操作系统内核更积极 的将应用程序的数据交换到磁盘。

将 Hadoop 守护进程的数据交换到磁盘是很危险的,有可能导致操作超时,所以 一般将改值设为  0

(2)内存分配策略

vm.overcommit_memory 的值决定分配策略,值通常为 0, 1 和 2 

0   表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程

1   表示内核允许分配所有的物理内存,而不管当前的内存状态如何。

表示内核允许分配超过所有物理内存和交换空间总和的内存,并且通过 vm.overcommit_ratio 的值设置超过的比例, 50 表示超过物理内存 50%

建议 vm.overcommit_memory 设置为 2 ,并调整 vm.overcommit_ratio

修改 vm.overcommit_memory 的三种方式 

1. 编辑/etc/sysctl.conf,增加一行 vm.overcommit_memory = 2 ,然后 sysctl -p 使配置文件生效

2. sysctl vm.overcommit_memory = 2

3. echo 2 > /proc/sys/vm/overcommit_memory 

(3)修改 net.core.somaxconn 参数

net.core.somaxconn 是 Linux 中的一个内核(kernel) 参数,表示 socket 监 听的 backlog 上限。

backlog 是 socket 的监听队列,当一个请求尚未被处理或建立时,会进入 backlog。

而 socket server 可以一次性处理 backlog 中的所有请求,处理后的请求不再 位于监听队列中。

当 server 处理请求较慢,以至于监听队列被填满后,新来的请求会被拒绝。

修改 net.core.somaxconn 的三种方式: 

1.编辑/etc/sysctl.conf, 增加一行 net.core.somaxconn = 32768 ,然后 sysctl -p 使配置文件生效

2.sysctl -w net.core.somaxconn = 32768

3.echo 32768 >/proc/sys/net/core/somaxconn 

注意

在 core-default.xml 中参数 ipc.server.listen.queue.size 控制 socket server 的监听队列长度,即 backlog 长度,默认为 128。而 Linux的参数 net.core.somaxconn 默认也为 128 ,当服务端(NameNode 或 ResourceManager)繁忙时, 128 是远远不够的,这样需要调大 backlog, 建议为大于等于 32768, 并修改 Hadoop 的 ipc.server.listen.queue.size 的 参数

(4)增大同时打开文件描述符的上限

(5)禁用文件的访问时间

(6)关闭 THP

THP (Transparent Huge Pages)是管理 Huge Pages 自动化的抽象层, 而 Huge Pages 是大小为 2MB ~ 1GB

的内存页。 在运行 Hadoop 作业时, THP 会引起 CPU 占用率偏高,故需要将其关闭。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容