详细描述常见nginx常用模块和模块的使用示例
nginx常见的模块分类:
核心模块:core module
Nginx 核心功能模块负责Nginx的全局应用,主要对应主配置文件的Main区块和Events区块
- Main 区块:常见的配置如下
user nginx;
设置运行nginx的用户名,每个指令都心“ ; ”结尾
worker_processes auto;
配置工作进程的数量,应用小于等于当前主机的物理核心数
auto表示自动检查内核核心数,并启动
error_log /var/log/nginx/error.log;
错误日志文件路径
pid /run/nginx.pid;
指定存储nginx主进程进程号码的文件路径
load_module file
指明要装载的动态模块
include file | mask
指明包含进来的其他配置文件
worker_cpu_affinity auto [cpumask]
cpu绑定的配置,auto表示自动绑定cpu核心
cpumask表示自定义核心数,表示如下:
CPU MASK:
00000000:8个0表示cpu编号
00000001:0号cpu
00000010:1号cpu
00000100:2号cpu
......
10000000:8号cpu
worker_priority number
指定worker进程的nice值
设定worker进程优先级在[-20,20]之间
worker_rlimit_nofile number
worker进程所能够打开的文件数量上限
daemon on|off 是否以守护进程方式运行Nignx
master_process on|off
是否以master/worker模型运行nginx;默认为on
- Events 区块:在配置文件中以events{}形式配置,常见的选项有:
worker_connections 1024;
#单进程所能够打开的最大并发连接数数量
user select | poll
#指明并发连接请求的处理方法(select | poll)
accept_mutex on | oof
处理新的连接请求的方法;
on意味着由各worker轮流处理新请求
off意味着每个新请求的到达都会通知所有的worker进程
标准模块:HTTP modules,Standard HTTP modules,Optional HTTP modules,Mail modules等。这些模块非常丰富,列举常见的模块
ngx_http_auth_basic_module模块:实现基于用户的访问控制,使用basic机制进行用户认证
auth_basic string | off;认证的用户字符
auth_basic_user_file file;认证的文件路径
配置示例:
location /admin/ {
alias /webapps/app1/data/;
auth_basic "Admin Area";
auth_basic_user_file /etc/nginx/.ngxpasswd;
}
ngx_http_stub_status_module模块:用于输出nginx的基本状态信息
Active connections: 291
server accepts handled requests
16630948 16630948 31070465
Reading: 6 Writing: 179 Waiting: 106
Active connections: 活动状态的连接数;
accepts:已经接受的客户端请求的总数;
handled:已经处理完成的客户端请求的总数;
requests:客户端发来的总的请求数;
Reading:处于读取客户端请求报文首部的连接的连接数;
Writing:处于向客户端发送响应报文过程中的连接数;
Waiting:处于等待客户端发出请求的空闲连接数;
配置示例:
location /basic_status {
stub_status;
}
ngx_http_ssl_module模块:ssl安全模块功能
ssl on | off;
是否开启ssl安全功能
ssl_certificate file;
当前虚拟主机使用PEM格式的证书文件;
ssl_certificate_key file;
当前虚拟主机上与其证书匹配的私钥文件;
ssl_protocols [SSLv2] [SSLv3] [TLSv1] [TLSv1.1] [TLSv1.2];
支持ssl协议版本,默认为后三个;
ssl_session_cache off | none | [builtin[:size]] [shared:name:size];
builtin[:size]:使用OpenSSL内建的缓存,此缓存为每worker进程私有;
[shared:name:size]:在各worker之间使用一个共享的缓存;
ssl_session_timeout time;
客户端一侧的连接可以复用ssl session cache中缓存 的ssl参数的有效时长;
配置示例:
server {
listen 443 ssl;
server_name www.magedu.com;
root /vhosts/ssl/htdocs;
ssl on;
ssl_certificate /etc/nginx/ssl/nginx.crt;
ssl_certificate_key /etc/nginx/ssl/nginx.key;
ssl_session_cache shared:sslcache:20m;
}
ngx_http_referer_module模块:反盗链功能
valid_referers none | blocked | server_names | string ...;
定义referer首部的合法可用值;
none:请求报文首部没有referer首部;
blocked:请求报文的referer首部没有值;
server_names:参数,其可以有值作为主机名或主机名模式;
arbitrary_string:直接字符串,但可使用*作通配符;
regular expression:被指定的正则表达式模式匹配到的字符串;要使用~打头,例如 ~.*\.magedu\.com;
配置示例:
valid_referers none block server_names *.magedu.com *.mageedu.com magedu.* mageedu.* ~\.magedu\.;
if($invalid_referer) {
return http://www.magedu.com/invalid.jpg;
}
以上仅仅是nginx配置模块的冰册一角,详细的配置文档可以查看官方文档:http://nginx.org/en/docs/
简述Linux集群类型、系统扩展方式及调度方法
Linux集群类型分为:LB(负载均衡),HA(高可用),HP(高性能)几种类型。
系统的扩展方式一般有向上扩展和向外扩展两种,在linux服务中一般是向外扩展。
调度方法有静态方法与动态方法两天类型
静态方法:是仅根据算法本身进行调度主要有以下几种方法:
- RR:roundrobin,轮询
- WRR:Weighted RR,加权轮询
- SH:Source Hashing,实现session sticky,对源IP地址进行hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,实现会话绑定
- DH:DH:Destination Hashing;目标地址hash,将发往同一个目标IP的请求始终转发至第一次挑中的RS,典型使用场景是正向代理缓存场景中的负载均衡
动态方法:主要根据每RS当前的负载状态及调度算法进行调度
- LC:least connections,最少连接数算法,计算方式如下:
Overhead=activeconns(活动链接)*256+inactiveconns(非活动链接) - WLC:Weighted LC,权重最少连接数算法,计算方式如下:
Overhead=(activeconns*256+inactiveconns)/weight(权重) - SED:Shortest Expection Delay,最短期望延迟,计算方式如下:
Overhead=(activeconns+1)*256/weight
除此之外还有NQ,LBLC,(动态的DH算法),LBLCR,(带复制功能的LBLC)等几个算法不进行一一列举了。
简述lvs四种集群优点及使用场景
四种集群方式分别为:lvs-nat,lvs-dr,lvs-tun,lvs-fullnat。在介绍这四种工作原理之前,了解一下lvs集群中的一些术语。
vs:Virtual Server,Director,Dispatcher,Balancer
rs:Real Server,upstream server,backend server
CIP:Client IP
VIP:Virtual server IP
RIP:Real server IP
DIP:Director IP
lvs-nat:
多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RS的RIP地址和PORT端口来实现转发。网络拓扑图如下:
工作原理:当client向服务器(RS集群)发送请求时,源地址为CIP地址,目标地址为VIP,调度器Diretory收到报文后发现是发给后端RS服务器的数据,通过调度发给其中的一台RS(假设为RS1服务器),于是通过DIP向RS1的RIP1地址发送报文。
RS1服务器接收报文后,响应client的请求,于是RS1通过RIP1向Director的DIP地址发送响应报文,Director收到报文后将源地址IP从RIP改为VIP,目标IP不变发送给client。
这就完成了一次请求与响应的过程,期间client是与Director通信,并不知道RS服务器的存在。
该方式有以下几点特点:
- RIP和DIP必须在同一个IP网络,且应该使用私网地址;RS的网关要指向DIP
- 请求报文和响应报文都必须经由Director转发;所有的请求和发送都经过Director,Director易于造成系统拥塞
- 支持端口映射,可修改请求报文的目标PORT
- vs(Director)必须是Linux系统,rs可以是任意系统
lvs-nat是典型的反代服务器的一种应用,Director可以做静态内容的缓存,减轻后端RS服务器的IP压力,并且能隐藏后端的RS服务器
lvs-dr:(Direc Routing)
直接路由,通过为请求报文重新封装一个MAC首部进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源IP/PORT,以及目标IP/PORT均保持不变,由于lvs-dr是基于mac进行转发的,所以Director和各RS都得配置使用VIP,但是Director和各RS都有VIP要保证请求只发给Director而不是直接发给RS则需要确保前端路由器将目标IP为VIP的请求报文发往Director
实现方法有以下几种:
- 在前端网关做静态绑定,直接绑定mac,不进行ARP广播,但是如果Director出现故障则会出现找不到mac地址或重新绑定的情况。
- 在RS上使用aprtables
-
在RS上修改内核参数以限制arp通告及应答级别将apr_announce和apr_ignore这两个参数修改一下就可以了,一般推荐第三种方式。
其网络拓扑图如下:
工作原理:CIP向VIP请求报文,经过route时发现VIP在自己的网络中,于是就通过ARP方式将报文发给VIP主机,这里的Director和RS都有VIP地址,所以要确保请求报文只能被Director接收,之后Director通过调度在报文上加上RS的MAC地址把报文扔给router,touter通过新的MAC地址找的RS主机,并发送请求报告。
RS接收到请求报文之后发送用自己的VIP地址(一般不与RIP同网卡,而在lo网卡上)直接通过router响应报文,响应报文不经过Director,从而减轻Director的负载压力。
除了上面提到的mac问题以外该方式还有以下几点特点:
- RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;RIP的网关不能指向DIP,以确保响应报文不会经由Director
- RS跟Director要在同一个物理网络(经过mac地址转发的)
- 请求报文要经由Director,但响应不能经由Director,而是由RS直接发往Client
- 不支持端口映射
lvs-dr是为减轻Director负载压力的一种实现方式
lvs-tun:
转发方式:不修改请求报文的IP首部(源IP为CIP,目标IP为VIP),而是在原IP报文之外再封装一个IP首部(源IP是DIP,目标IP是RIP),将报文发往调度挑选出的目标RS;
RS直接响应给客户端(源IP是VIP,目标IP是CIP)
其网络拓扑图如下:
工作原理:CIP向VIP发送请求报文,通过router到达Director,Director接受报文发现是集群服务后端报文直接在报文首部再添加RS服务的RIP地址首部(假设为RS1),并通过Internet发送到RS1服务器,RS接受报文后拆封报文时第一层的RIP是本机地址,但是还有一层VIP地址首部,因此RS要支持隧道功能,能理解VIP地址并接受处理请求。
RS向CIP响应报文时,直接使用VIP做源地址,CIP做目标地址通过Internet向Client响应报文。
其特点如下:
- DIP,VIP,RIP都应该是公网地址
- RS的网关不能,也不可能指向DIP(响应不应该Director)
- 请求报文要经由Director,但响应不能经由Director
- 不支持端口映射
- RS的OS得支持隧道功能:如果请求报文数据超过MTU(最大报文数)时,在添加首部会超过MTU而被拆分报文(要理解内层的CIP和VIP的首部)
lvs-tun一般应用在Director与RS不在同一网段,并且相隔甚远的情况下使用。
lvs-fullnat:
通过同时修改请求报文的源IP地址和目标IP地址进行转发。
CIP <--> DIP 请求报文时源IP从左往右,响应时目标IP从右往左
VIP <--> RIP 请求报文时目标IP从左往右,响应时源IP从右往左
工作原理:CIP向VIP发送请求,Director接收报文后知道是后端服务报文,于是修改源地址IP为DIP,目标地址IP为RIP,经过路由发送的RS服务器上。
RS服务器响应报文时,先通过RIP地址将报文发给Director的DIP,Director接收到报文后发现是Client的报文于是修改源IP为VIP,目标IP为CIP通过Internet发送给client。
lvs-fullnat的特点如下:
- VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向DIP
- RS收到的请求报文源地址是DIP,因此,只能响应给DIP;但Director还要将其发往Client
- 请求和响应报文都经由Director
- 支持端口映射,此类型默认不支持(需要修改编译内核)
lvs-fullnat框架一般用于Director与RS不在同一机房但可以通过内网连接的一种方式,内核默认是不支持的,需要重新编译内核才能实现。
描述LVS-NAT、LVS-DR的工作原理并实现配置
lvs-nat和lvs-dr的工作原理上述已经说明了,这个主要将如何实现配置,在配置之前先说明一下ipvsadm工具的一般用法,先yum安装ipvsadm之后执行一下ipvsadm -h命令查看帮助信息,具体如下:
[root@zhu ~]# ipvsadm -h
ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)
Usage:
ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-M netmask] [--pe persistence_engine] [-b sched-flags]
ipvsadm -D -t|u|f service-address
ipvsadm -C
ipvsadm -R
ipvsadm -S [-n]
ipvsadm -a|e -t|u|f service-address -r server-address [options]
ipvsadm -d -t|u|f service-address -r server-address
ipvsadm -L|l [options]
ipvsadm -Z [-t|u|f service-address]
ipvsadm --set tcp tcpfin udp
ipvsadm --start-daemon state [--mcast-interface interface] [--syncid sid]
ipvsadm --stop-daemon state
ipvsadm -h
Commands:
Either long or short options are allowed.
--add-service -A add virtual service with options
--edit-service -E edit virtual service with options
--delete-service -D delete virtual service
--clear -C clear the whole table
--restore -R restore rules from stdin
--save -S save rules to stdout
--add-server -a add real server with options
--edit-server -e edit real server with options
--delete-server -d delete real server
--list -L|-l list the table
--zero -Z zero counters in a service or all services
--set tcp tcpfin udp set connection timeout values
--start-daemon start connection sync daemon
--stop-daemon stop connection sync daemon
--help -h display this help message
Options:
--tcp-service -t service-address service-address is host[:port]
--udp-service -u service-address service-address is host[:port]
--fwmark-service -f fwmark fwmark is an integer greater than zero
--ipv6 -6 fwmark entry uses IPv6
--scheduler -s scheduler one of rr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq,
the default scheduler is wlc.
--pe engine alternate persistence engine may be sip,
not set by default.
--persistent -p [timeout] persistent service
--netmask -M netmask persistent granularity mask
--real-server -r server-address server-address is host (and port)
--gatewaying -g gatewaying (direct routing) (default)
--ipip -i ipip encapsulation (tunneling)
--masquerading -m masquerading (NAT)
--weight -w weight capacity of real server
--u-threshold -x uthreshold upper threshold of connections
--l-threshold -y lthreshold lower threshold of connections
--mcast-interface interface multicast interface for connection sync
--syncid sid syncid for connection sync (default=255)
--connection -c output of current IPVS connections
--timeout output of timeout (tcp tcpfin udp)
--daemon output of daemon information
--stats output of statistics information
--rate output of rate information
--exact expand numbers (display exact values)
--thresholds output of thresholds information
--persistent-conn output of persistent connection info
--nosort disable sorting output of service/server entries
--sort does nothing, for backwards compatibility
--ops -o one-packet scheduling
--numeric -n numeric output of addresses and ports
--sched-flags -b flags scheduler flags (comma-separated)
ipvsadm常用的命令如下:
ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-M netmask] [--pe persistence_engine] [-b sched-flags]
vs服务相关的命令
-A:新增VS
-E:修改VS
-D:删除VS
-R:重载规则
-S:保存规则(相当于ipvsadm-save)
-C:清空所有
-L:查看
-t:tcp协议
-u:udp协议
-f:firewall MARK,是一个数字
-s:调度方法,默认是wlc
-p:会话保持连接的
---------------------------分割线----------------------------------------
ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]
RS相关的命令
-a,-e,-d,-l,-t|u|f这些命令与VS服务命令一致,只是大小写转换而已
-r:指明服务器的IP
-w:权重
lvs-nat配置:
前期准备:
各节点时间必须同步
Director:
VIP:192.168.80.4(公网地址)
DIP:192.168.10.8(私网地址)
开启核心转发功能
[root@director ~]# ifconfig
ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.80.4 netmask 255.255.255.0 broadcast 192.168.80.255
inet6 fe80::3f13:7555:73e5:6f08 prefixlen 64 scopeid 0x20<link>
ether 00:0c:29:01:ba:2c txqueuelen 1000 (Ethernet)
RX packets 122777 bytes 133041537 (126.8 MiB)
RX errors 0 dropped 2 overruns 0 frame 0
TX packets 16760 bytes 1547576 (1.4 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
ens37: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.10.8 netmask 255.255.255.0 broadcast 192.168.10.255
inet6 fe80::a857:646a:90c8:ab64 prefixlen 64 scopeid 0x20<link>
ether 00:0c:29:01:ba:36 txqueuelen 1000 (Ethernet)
RX packets 62 bytes 5983 (5.8 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 61 bytes 5346 (5.2 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
---------------------------------分割线----------------------------------
#开启核心转发功能
[root@director ~]# sysctl -w net.ipv4.ip_forward=1
net.ipv4.ip_forward = 1
RS1:
RIP:192.168.10.9(私网地址并且和Director的私网地址在同一网段)
GW:192.168.10.8(网关必须指向Director的私网地址)
RS1可以ping通Director的私网地址,安装nginx或httpd服务,并配置主页内容
[root@rs1 ~]# ping 192.168.10.8
PING 192.168.10.8 (192.168.10.8) 56(84) bytes of data.
64 bytes from 192.168.10.8: icmp_seq=1 ttl=64 time=0.339 ms
64 bytes from 192.168.10.8: icmp_seq=2 ttl=64 time=2.13 ms
64 bytes from 192.168.10.8: icmp_seq=3 ttl=64 time=0.320 ms
64 bytes from 192.168.10.8: icmp_seq=4 ttl=64 time=0.368 ms
64 bytes from 192.168.10.8: icmp_seq=5 ttl=64 time=0.808 ms
^C
--- 192.168.10.8 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 4004ms
rtt min/avg/max/mdev = 0.320/0.794/2.137/0.695 ms
RS2:
RIP:192.168.10.10(私网地址并且和Director的私网地址在同一网段)
GW:192.168.10.8(网关必须指向Director的私网地址)
RS2可以ping通Director的私网地址,安装nginx或httpd服务,并配置主页内容
[root@rs2 ~]# ping 192.168.10.8
PING 192.168.10.8 (192.168.10.8) 56(84) bytes of data.
64 bytes from 192.168.10.8: icmp_seq=1 ttl=64 time=0.392 ms
64 bytes from 192.168.10.8: icmp_seq=2 ttl=64 time=0.558 ms
64 bytes from 192.168.10.8: icmp_seq=3 ttl=64 time=0.367 ms
64 bytes from 192.168.10.8: icmp_seq=4 ttl=64 time=0.367 ms
64 bytes from 192.168.10.8: icmp_seq=5 ttl=64 time=0.462 ms
^C
--- 192.168.10.8 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 4000ms
rtt min/avg/max/mdev = 0.367/0.429/0.558/0.074 ms
验证服务是否配置成功
[root@director ~]# curl http://192.168.10.9/test1.html #连接RS1的nginx服务
<h1>RS1:192.168.10.9</h1>
[root@director ~]# curl http://192.168.10.10/test1.html #连接RS2的nginx服务
<h1>RS2:192.168.10.10</h1>
安装ipvsadm:
[root@director ~]# yum install ipvsadm -y
已加载插件:fastestmirror
Loading mirror speeds from cached hostfile
* base: centos.ustc.edu.cn
* extras: centos.ustc.edu.cn
* updates: centos.ustc.edu.cn
正在解决依赖关系
--> 正在检查事务
......
Running transaction
正在安装 : ipvsadm-1.27-7.el7.x86_64 1/1
验证中 : ipvsadm-1.27-7.el7.x86_64 1/1
已安装:
ipvsadm.x86_64 0:1.27-7.el7
完毕!
配置lvs-nat
配置Director
[root@director ~]# ipvsadm -A -t 192.168.80.4:80 -s rr
# -s 指明调度方式为rr,Director服务要ip:80
添加RS服务器
[root@director ~]# ipvsadm -a -t 192.168.80.4:80 -r 192.168.10.9 -m
[root@director ~]# ipvsadm -a -t 192.168.80.4:80 -r 192.168.10.10 -m
# -r:添加RS服务器;-m:指明是nat模式
检查配置结果:
[root@director ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.80.4:80 rr
-> 192.168.10.9:80 Masq 1 0 0
-> 192.168.10.10:80 Masq 1 0 0
验证结果:
[root@node1 ~]# for i in {1..10}; do curl http://192.168.80.4/test1.html; done
<h1>RS1:192.168.10.9</h1>
<h1>RS2:192.168.10.10</h1>
<h1>RS1:192.168.10.9</h1>
<h1>RS2:192.168.10.10</h1>
<h1>RS1:192.168.10.9</h1>
<h1>RS2:192.168.10.10</h1>
<h1>RS1:192.168.10.9</h1>
<h1>RS2:192.168.10.10</h1>
<h1>RS1:192.168.10.9</h1>
<h1>RS2:192.168.10.10</h1>
lvs-dr配置:
前期准备:
各节点时间必须同步
Director:
VIP:192.168.10.8
DIP:192.168.80.4
在ens33:0网卡上配置如下:
[root@director ~]# ifconfig ens33:0 192.168.10.8 netmask 255.255.255.255 broadcast 192.168.10.8 up
[root@director ~]# route add -host 192.168.10.8 dev ens33:0
RS1:
VIP:192.168.10.8
RIP1:192.168.80.20
在lo:0上配置VIP
[root@rs1 ~]# ifconfig lo:0 192.168.10.8 netmask 255.255.255.255 broadcast 192.168.10.8 up
RS2:
VIP:192.168.10.8
RIP2:192.168.80.22
在lo:0上配置VIP
[root@rs2 ~]# ifconfig lo:0 192.168.10.8 netmask 255.255.255.255 broadcast 192.168.10.8 up
两台RS配置脚本写入内核,对arp_ignore&&arp_announce做调整
[root@rs1 ~]# vim announce.sh
#!/bin/bash
#
case $1 in
start)
echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
;;
stop)
ifconfig lo:0 down
echo 0 > /proc/sys/net/ipv4/conf/all/arp_ignore
echo 0 > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo 0 > /proc/sys/net/ipv4/conf/all/arp_announce
echo 0 > /proc/sys/net/ipv4/conf/lo/arp_announce
;;
*)
echo "Usage: $(basename $0) start|stop"
exit 1
;;
esac
--------------------------------------分割线------------------------------
[root@rs1 ~]# route add -host 192.168.10.8 dev lo:0
# route add 命令指定192.168.10.8的IP只能经过lo:0这个网卡发送出去,确保是VIP响应而不是RIP响应
在Director上安装并配置ipvsadm:
[root@director ~]# yum install ipvsadm -y
已加载插件:fastestmirror
Loading mirror speeds from cached hostfile
* base: ftp.sjtu.edu.cn
* extras: ftp.sjtu.edu.cn
* updates: mirrors.shu.edu.cn
......
Running transaction
正在安装 : ipvsadm-1.27-7.el7.x86_64 1/1
验证中 : ipvsadm-1.27-7.el7.x86_64 1/1
已安装:
ipvsadm.x86_64 0:1.27-7.el7
完毕!
[root@director ~]# ipvsadm -A -t 192.168.10.8:80 -s rr
[root@director ~]# ipvsadm -a -t 192.168.10.8:80 -r 192.168.80.20 -g
[root@director ~]# ipvsadm -a -t 192.168.10.8:80 -r 192.168.80.22 -g
[root@director ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.10.8:80 rr
-> 192.168.80.20:80 Route 1 0 0
-> 192.168.80.22:80 Route 1 0 0
# -g:表示dr类型,默认是dr
验证结果:
[root@node1 ~]# for i in {1..10}; do curl http://192.168.10.8/test1.html; done
<h1>RS1:192.168.80.20</h1>
<h1>RS2:192.168.80.22</h1>
<h1>RS1:192.168.80.20</h1>
<h1>RS2:192.168.80.22</h1>
<h1>RS1:192.168.80.20</h1>
<h1>RS2:192.168.80.22</h1>
<h1>RS1:192.168.80.20</h1>
<h1>RS2:192.168.80.22</h1>
<h1>RS1:192.168.80.20</h1>
<h1>RS2:192.168.80.22</h1>