搭建高可用OpenStack(Queen版)集群(二)之部署控制节点高可用的管理支持服务

网友投稿 1025 2022-10-13

搭建高可用OpenStack(Queen版)集群(二)之部署控制节点高可用的管理支持服务

搭建高可用OpenStack(Queen版)集群(二)之部署控制节点高可用的管理支持服务

一、搭建高可用OpenStack(Queen版)集群之部署控制节点高可用的管理支持服务

一、数据库:Mariadb-Galera集群部署

1、MariaDB Galera Cluster的简介及特点

1、MariaDB Galera Cluster的主要功能

多个节点数据同步复制每个节点都是主节点,每个节点都有全部的数据每个节点都可以提供读写操作失效节点自动剔除,新节点加入自动同步(慎重,新节点加入会造成锁表)

2、MariaDB Galera Cluster的优点

多主的结构,不存在同步延迟的问题。(master-slave是异步同步数据,Galera是同步同步数据)不存在事务丢失的情况(有待验证)节点都可以进行读写,客户端可以任意连接到其中节点,增强负载能力

3、MariaDB Galera Cluster的缺点

加入新节点时,同步数据会造成锁表对于写入操作会发生到每个节点上多少个节点就有多少份数据网络不稳,会出现脑裂情况,服务将不可用,不适用与重要数据的生产环境仅支持InnoDB/XtraDB存储引擎

2、MariaDB Galera Cluster工作流程图

当客户端发送一个commit命令,在事务被提交之前,所有对数据的更改都会被write-set收集起来,并且将write-set记录的内容发送给其他节点。write-set将在每个节点上使用搜索到的主键进行确认性测试,测试结果决定着节点是否应用write-set更改数据。如果认证测试失败,节点将丢弃write-set;如果测试成功,则事务提交。工作如下:

3、搭建MariaDB Galera Cluster集群

1、安装mariadb和galera相关组件

# 在全部controller节点安装mariadb,以controller01节点为例yum install mariadb mariadb-server python2-PyMySQL -y# 安装galera相关插件,利用galera搭建集群yum install mariadb-server-galera mariadb-galera-common galera xinetd rsync -y

安装完后的配置文件:

# ll /etc/my-f.d/total 28-rw-r--r-- 1 root root 41 Oct 4 2017 auth_gssapi-f-rw-r--r-- 1 root root 295 Dec 15 2016 client-f-rw-r--r-- 1 root root 763 Dec 15 2016 enable_encryption.preset-rw-r--r-- 1 root root 3509 Oct 4 2017 galera-f-rw-r--r-- 1 root root 1462 Oct 4 2017 mariadb-server-f-rw-r--r-- 1 root root 232 Dec 15 2016 mysql-clients-f-rw-r--r-- 1 root root 285 Dec 15 2016

2、初始化mariadb

在全部控制节点初始化数据库密码,以controller01节点为例;

# root初始密码为空systemctl start mariadb.servicesystemctl enable mariadb.service[root@controller01 ~]# mysql_secure_installationEnter current password for root (enter for none): Set root password? [Y/n] yNew password: Re-enter new password: Remove anonymous users? [Y/n] yDisallow root login remotely? [Y/n] nRemove test database and access to it? [Y/n] yReload privilege tables now? [Y/n] y

3、修改MariaDB的配置文件

在全部控制节点/etc/my-f.d/目录下新增openstack-f配置文件,主要设置集群同步相关参数,以controller01节点为例,个别涉及ip地址/host名等参数根据实际情况修改

[root@controller01 my-f.d]# cat /etc/my-f.d/openstack-f [mysqld]binlog_format = ROWbind-address = 10.20.9.189default-storage-engine = innodbinnodb_file_per_table = onmax_connections = 4096collation-server = utf8_general_cicharacter-set-server = utf8[galera]bind-address = 10.20.9.189wsrep_provider = /usr/lib64/galera/libgalera_smm.sowsrep_cluster_address ="gcomm://controller01,controller02,controller03"wsrep_cluster_name = openstack-cluster-01wsrep_node_name = controller01wsrep_node_address = 10.20.9.189wsrep_on=ONwsrep_slave_threads=4wsrep_sst_method=rsyncdefault_storage_engine=InnoDB[embedded][mariadb][mariadb-10.1]

4、构建mariadb集群

# 停止全部控制节点的mariadb服务,以controller01节点为例systemctl stop mariadb.service# 任选1个控制节点以如下方式启动mariadb服务,这里选择controller01节点/usr/libexec/mysqld --wsrep-new-cluster --user=root &# 其他控制节点加入mariadb集群,以controller02节点为例;# 启动后加入集群,controller02节点从controller01节点同步数据,也可同步查看mariadb日志/var/log/mariadb/mariadb.logsystemctl start mariadb.servicesystemctl status mariadb.service

重新启动controller01节点;

# 启动前删除contrller01节点的数据 pkill -9 mysqlrm -rf /var/lib/mysql/*# 注意以system unit方式启动mariadb服务时的权限chown mysql:mysql /var/run/mariadb/mariadb.pid# 启动后查看节点所在服务状态,controller01节点从controller02节点同步数据systemctl start mariadb.servicesystemctl status mariadb.service

查看集群状态

[root@controller01 ~]# mysql -u root -pEnter password: Welcome to the MariaDB monitor. Commands end with ; or \g.Your MariaDB connection id is 7Server version: 10.1.20-MariaDB MariaDB ServerCopyright (c) 2000, 2016, Oracle, MariaDB Corporation Ab and others.Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.MariaDB [(none)]> show status like "wsrep_cluster_size";+--------------------+-------+| Variable_name | Value |+--------------------+-------+| wsrep_cluster_size | 3 |+--------------------+-------+1 row in set (0.00 sec)MariaDB [(none)]> SHOW status LIKE 'wsrep_ready';+---------------+-------+| Variable_name | Value |+---------------+-------+| wsrep_ready | ON |+---------------+-------+1 row in set (0.00 sec)

4、设置心跳检测clustercheck

1、准备脚本

# -clustercheck脚本wget clustercheck这个文件也许存在,检查是否一致# 赋权chmod +x clustercheckcp -rp ~/clustercheck /usr/bin/

2、创建心跳检测用户

在任意控制节点创建clustercheck_user用户并赋权;  注意账号/密码与脚本中的账号/密码对应,这里采用的是脚本默认的账号/密码,否则需要修改clustercheck脚本文件

[root@controller01 ~]# mysql -uroot -pmysql_passMariaDB [(none)]> GRANT PROCESS ON *.* TO 'clustercheckuser'@'localhost' IDENTIFIED BY 'clustercheckpassword!';MariaDB [(none)]> FLUSH PRIVILEGES;

3、创建检测配置文件

在全部控制节点新增心跳检测服务配置文件/etc/xinetd.d/mysqlchk,以controller01节点为例

[root@controller01 ~]# vim /etc/xinetd.d/mysqlchk# default: on# description: mysqlchkservice mysqlchk{ port = 9200 disable = no socket_type = stream protocol = tcp wait = no user = root group = root groups = yes server = /usr/bin/clustercheck type = UNLISTED per_source = UNLIMITED log_on_success = log_on_failure = HOST flags = REUSE}

4、启动心跳检测服务

# 修改/etc/services,变更tcp9200端口用途,以controller01节点为例[root@controller01 ~]# vim /etc/services#wap-wsp 9200/tcp # WAP connectionless session servicemysqlchk 9200/tcp # mysqlchk# 启动xinetd服务,以controller01节点为例systemctl daemon-reloadsystemctl enable xinetdsystemctl start xinetd

5、测试心跳检测脚本

在全部控制节点验证,以controller01节点为例

[root@controller01 ~]# /usr/bin/clustercheck

二、消息队列:RabbitMQ集群部署

采用openstack官方的安装方法,在未更新erlang的情况下,rabbitmq不是最新版本。

如果需要部署最新版本rabbitmq集群

1、 安装rabbitmq

# 在全部控制节点,使用aliyun的epel镜像,以controller01节点为例wget -O /etc/yum.repos.d/epel.repo install erlang rabbitmq-server -ysystemctl enable rabbitmq-server.service

2、构建rabbitmq集群

# 任选1个控制节点首先启动rabbitmq服务,这里选择controller01节点systemctl start rabbitmq-server.servicerabbitmqctl cluster_status# 分发.erlang.cookiescp /var/lib/rabbitmq/.erlang.cookie root@controller02:/var/lib/rabbitmq/scp /var/lib/rabbitmq/.erlang.cookie root@controller03:/var/lib/rabbitmq/# 修改controller02/03节点.erlang.cookie文件的用户/组,以controller02节点为例[root@controller02 ~]# chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie# 注意修改全部控制节点.erlang.cookie文件的权限,默认即400权限,可不修改[root@controller02 ~]# ll /var/lib/rabbitmq/.erlang.cookie# 启动controller02/03节点的rabbitmq服务 systemctl start rabbitmq-server# 构建集群,controller02/03节点以ram节点的形式加入集群rabbitmqctl stop_apprabbitmqctl join_cluster --ram rabbit@controller01rabbitmqctl start_app

[root@controller01 ~]# rabbitmqctl cluster_status

3、创建rabbitmq账号

# 在任意节点新建账号并设置密码,以controller01节点为例rabbitmqctl add_user openstack openstack# 设置新建账号的状态rabbitmqctl set_user_tags openstack administrator# 设置新建账号的权限rabbitmqctl set_permissions -p "/" openstack ".*" ".*" ".*"# 查看账号rabbitmqctl list_users

4、 镜像队列ha(在controller01执行)

# 设置镜像队列高可用rabbitmqctl set_policy ha-all "^" '{"ha-mode":"all"}'# 查看镜像队列策略rabbitmqctl list_policies

5、安装web管理插件

在全部控制节点安装web管理插件,以controller01节点为例

rabbitmq-plugins enable rabbitmq_management

浏览器访问,​​install memcached python-memcached -y

2、 更改memcached

sed -i 's|127.0.0.1,::1|0.0.0.0|g' /etc/sysconfig/memcached

3、启动memcached,并设置为开机自启

systemctl enable memcached.servicesystemctl start memcached.servicesystemctl status memcached.service

四、搭建Pacemaker cluster stack集群

Openstack官网使用开源的pacemaker cluster stack做为集群高可用资源管理软件。

详细介绍:​​install pacemaker pcs corosync fence-agents resource-agents -y

2、构建集群

1、启动pcs服务,在全部控制节点执行,以controller01节点为例

systemctl enable pcsdsystemctl start pcsd# 修改集群管理员hacluster(默认生成)密码,在全部控制节点执行,以controller01节点为例# echo pacemaker_pass | passwd --stdin haclusterChanging password for user hacluster.passwd: all authentication tokens updated successfully.

2、认证配置在任意节点操作,以controller01节点为例;

# 节点认证,组建集群,需要采用上一步设置的password# pcs cluster auth controller01 controller02 controller03 -u hacluster -p pacemaker_pass --forcecontroller01: Authorizedcontroller02: Authorizedcontroller03: Authorized

3、创建并命名集群,在任意节点操作,以controller01节点为例;

# 生成配置文件:/etc/corosync/corosync.confpcs cluster setup --force --name openstack-cluster-01 controller01 controller02 controller03

3、启动服务

在任意控制节点操作

1、启动集群,以controller01节点为例

# pcs cluster start --allcontroller01: Starting Cluster...controller02: Starting Cluster...controller03: Starting Cluster...

2、设置集群开机启动

# pcs cluster enable --allcontroller01: Cluster Enabledcontroller02: Cluster Enabledcontroller03: Cluster Enabled

3、查看集群状态,也可使用” crm_mon -1”命令

# “DC”:Designated Controller;# 通过”cibadmin --query --scope nodes”可查看节点配置

pcs status cluster

4、查看corosync状态

# “corosync”表示一种底层状态等信息的同步方式pcs status corosync

5、查看节点

# 或:corosync-cmapctl runtime.totem.pg.mrp.srp.memberscorosync-cmapctl | grep members

6、查看集群资源

方法一:使用命令(暂时没有资源)

pcs resource

方法二:web访问

通过web访问任意控制节点:​​设置合适的输入处理历史记录及策略引擎生成的错误与警告,在troulbshoot时有用pcs property set pe-warn-series-max=1000 \pe-input-series-max=1000 \pe-error-series-max=1000 # pacemaker基于时间驱动的方式进行状态处理,” cluster-recheck-interval”默认定义某些pacemaker操作发生的事件间隔为15min,建议设置为5min或3minpcs property set cluster-recheck-interval=5# corosync默认启用stonith,但stonith机制(通过ipmi或ssh关闭节点)并没有配置相应的stonith设备(通过“crm_verify -L -V”验证配置是否正确,没有输出即正确),此时pacemaker将拒绝启动任何资源;# 在生产环境可根据情况灵活调整,验证环境下可关闭pcs property set stonith-enabled=false# 默认当有半数以上节点在线时,集群认为自己拥有法定人数,是“合法”的,满足公式:total_nodes < 2 * active_nodes;# 以3个节点的集群计算,当故障2个节点时,集群状态不满足上述公式,此时集群即非法;当集群只有2个节点时,故障1个节点集群即非法,所谓的”双节点集群”就没有意义;# 在实际生产环境中,做2节点集群,无法仲裁时,可选择忽略;做3节点集群,可根据对集群节点的高可用阀值灵活设置pcs property set no-quorum-policy=ignore# v2的heartbeat为了支持多节点集群,提供了一种积分策略来控制各个资源在集群中各节点之间的切换策略;通过计算出各节点的的总分数,得分最高者将成为active状态来管理某个(或某组)资源;# 默认每一个资源的初始分数(取全局参数default-resource-stickiness,通过"pcs property list --all"查看)是0,同时每一个资源在每次失败之后减掉的分数(取全局参数default-resource-failure-stickiness)也是0,此时一个资源不论失败多少次,heartbeat都只是执行restart操作,不会进行节点切换;# 如果针对某一个资源设置初始分数”resource-stickiness“或"resource-failure-stickiness",则取单独设置的资源分数;# 一般来说,resource-stickiness的值都是正数,resource-failure-stickiness的值都是负数;有一个特殊值是正无穷大(INFINITY)和负无穷大(-INFINITY),即"永远不切换"与"只要失败必须切换",是用来满足极端规则的简单配置项;# 如果节点的分数为负,该节点在任何情况下都不会接管资源(冷备节点);如果某节点的分数大于当前运行该资源的节点的分数,heartbeat会做出切换动作,现在运行该资源的节点将释 放资源,分数高出的节点将接管该资源

# pcs property list 只可查看修改后的属性值,参数”--all”可查看含默认值的全部属性值;# 也可查看/var/lib/pacemaker/cib/cib.xml文件,或”pcs cluster cib”,或“cibadmin --query --scope crm_config”查看属性设置,” cibadmin --query --scope resources”查看资源配置pcs property list

5、配置vip

1、在任意控制节点设置vip(resource_id属性)即可,命名即为“vip”;

ocf(standard属性):资源代理(resource agent)的一种,另有systemd,lsb,service等;heartbeat:资源脚本的提供者(provider属性),ocf规范允许多个供应商提供同一资源代理,大多数ocf规范提供的资源代理都使用heartbeat作为provider;IPaddr2:资源代理的名称(type属性),IPaddr2便是资源的type;通过定义资源属性(standard:provider:type),定位”vip”资源对应的ra脚本位置;centos系统中,符合ocf规范的ra脚本位于/usr/lib/ocf/resource.d/目录,目录下存放了全部的provider,每个provider目录下有多个type;op:表示Operations

创建vip10.20.9.47

pcs resource create vip ocf:heartbeat:IPaddr2 ip=10.20.9.47 cidr_netmask=24 op monitor interval=30s

查看集群资源通过”pcs resouce”查询,vip资源在controller01节点

# pcs resourcevip (ocf::heartbeat:IPaddr2): Started controller01

通过”ip a show”可查看vip

# ip a show ens1922: ens192: mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:85:3b:76 brd ff:ff:ff:ff:ff:ff inet 10.20.9.189/24 brd 10.20.9.255 scope global ens192 valid_lft forever preferred_lft forever inet 10.20.9.47/24 brd 10.20.9.255 scope global secondary ens192 valid_lft forever preferred_lft forever

6、High availability management

1、通过web访问任意控制节点:

​​constraint colocation add vip_management with vip_public

五、Haproxy

在全部控制节点安装haproxy,以controller01节点为例;

1、安装haproxy

# # 如果需要安装最新版本,可参考:javascript:void(0)

yum install haproxy -y

2、 配置haproxy.cfg

1、haproxy依靠rsyslog输出日志,是否输出日志根据实际情况设定;备份原haproxy.cfg文件

cp /etc/haproxy/haproxy.cfg{,.bak}

2、集群的haproxy文件,涉及服务较多,这里针对涉及到的openstack服务,一次性设置完成,如下:

VIP:10.20.9.47

#grep -v ^# /etc/haproxy/haproxy.cfg

global chroot /var/lib/haproxy daemon group haproxy user haproxy maxconn 4000 pidfile /var/run/haproxy.piddefaults log global maxconn 4000 option redispatch retries 3 timeout 10s timeout queue 1m timeout connect 10s timeout client 1m timeout server 1m timeout check 10s# haproxy监控页listen stats bind 0.0.0.0:1080 mode stats enable stats uri / stats realm OpenStack\ Haproxy stats auth admin:admin stats refresh 30s stats show-node stats show-legends stats hide-version# horizon服务 listen dashboard_cluster bind 10.20.9.47:80 balance source option tcpka option option tcplog server controller01 10.20.9.189:80 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:80 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:80 check inter 2000 rise 2 fall 5# mariadb服务;# 设置controller01节点为master,controller02/03节点为backup,一主多备的架构可规避数据不一致性;# 另外官方示例为检测9200(心跳)端口,测试在mariadb服务宕机的情况下,虽然”/usr/bin/clustercheck”脚本已探测不到服务,# 但受xinetd控制的9200端口依然正常,导致haproxy始终将请求转发到mariadb服务宕机的节点,暂时修改为监听3306端口listen galera_cluster bind 10.20.9.47:3306 balance source mode tcp server controller01 10.20.9.189:3306 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:3306 backup check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:3306 backup check inter 2000 rise 2 fall 5# 为rabbirmq提供ha集群访问端口,供openstack各服务访问;(vip需要改个和后端rabbitmq不一样的端口号)# 如果openstack各服务直接连接rabbitmq集群,这里可不设置rabbitmq的负载均衡 listen rabbitmq_cluster bind 10.20.9.47:5673 mode tcp option tcpka balance roundrobin timeout client 3h timeout server 3h option clitcpka server controller01 10.20.9.189:5672 check inter 10s rise 2 fall 5 server controller02 10.20.9.190:5672 check inter 10s rise 2 fall 5 server controller03 10.20.9.45:5672 check inter 10s rise 2 fall 5# glance_api服务 listen glance_api_cluster bind 10.20.9.47:9292 balance source option tcpka option option tcplog server controller01 10.20.9.189:9292 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:9292 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:9292 check inter 2000 rise 2 fall 5# glance_registry服务 listen glance_registry_cluster bind 10.20.9.47:9191 balance source option tcpka option tcplog server controller01 10.20.9.189:9191 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:9191 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:9191 check inter 2000 rise 2 fall 5# keystone_admin_internal_api服务 listen keystone_admin_cluster bind 10.20.9.47:35357 balance source option tcpka option option tcplog server controller01 10.20.9.189:35357 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:35357 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:35357 check inter 2000 rise 2 fall 5# keystone_public _api服务 listen keystone_public_cluster bind 10.20.9.47:5000 balance source option tcpka option option tcplog server controller01 10.20.9.189:5000 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:5000 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:5000 check inter 2000 rise 2 fall 5# 兼容aws ec2-api listen nova_ec2_api_cluster bind 10.20.9.47:8773 balance source option tcpka option tcplog server controller01 10.20.9.189:8773 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:8773 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:8773 check inter 2000 rise 2 fall 5 listen nova_compute_api_cluster bind 10.20.9.47:8774 balance source option tcpka option option tcplog server controller01 10.20.9.189:8774 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:8774 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:8774 check inter 2000 rise 2 fall 5 listen nova_placement_cluster bind 10.20.9.47:8778 balance source option tcpka option tcplog server controller01 10.20.9.189:8778 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:8778 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:8778 check inter 2000 rise 2 fall 5 listen nova_metadata_api_cluster bind 10.20.9.47:8775 balance source option tcpka option tcplog server controller01 10.20.9.189:8775 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:8775 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:8775 check inter 2000 rise 2 fall 5 listen nova_vncproxy_cluster bind 10.20.9.47:6080 balance source option tcpka option tcplog server controller01 10.20.9.189:6080 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:6080 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:6080 check inter 2000 rise 2 fall 5 listen neutron_api_cluster bind 10.20.9.47:9696 balance source option tcpka option option tcplog server controller01 10.20.9.189:9696 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:9696 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:9696 check inter 2000 rise 2 fall 5 listen cinder_api_cluster bind 10.20.9.47:8776 balance source option tcpka option option tcplog server controller01 10.20.9.189:8776 check inter 2000 rise 2 fall 5 server controller02 10.20.9.190:8776 check inter 2000 rise 2 fall 5 server controller03 10.20.9.45:8776 check inter 2000 rise 2 fall 5

3、配置内核参数

全部控制节点修改内核参数,以controller01节点为例;  net.ipv4.ip_nonlocal_bind:是否允许no-local ip绑定,关系到haproxy实例与vip能否绑定并切换;  net.ipv4.ip_forward:是否允许转发

echo "net.ipv4.ip_nonlocal_bind = 1" >>/etc/sysctl.confecho "net.ipv4.ip_forward = 1" >>/etc/sysctl.confsysctl -p

4、启动

开机启动是否设置可自行选择,利用pacemaker设置haproxy相关资源后,pacemaker可控制各节点haproxy服务是否启动

systemctl enable haproxysystemctl restart haproxysystemctl status haproxy

访问:​​密码:admin

5、设置pcs资源

1、任意控制节点操作即可,以controller01节点为例;添加资源lb-haproxy-clone

[root@controller01 ~]# pcs resource create lb-haproxy systemd:haproxy --clone [root@controller01 ~]# pcs resource vip (ocf::heartbeat:IPaddr2): Started controller01 Clone Set: lb-haproxy-clone [lb-haproxy] Started: [ controller01 controller02 controller03 ]

2、设置资源启动顺序,先vip再lb-haproxy-clone

通过“cibadmin --query --scope constraints”可查看资源约束配置

# pcs constraint order start vip then lb-haproxy-clone kind=OptionalAdding vip lb-haproxy-clone (kind: Optional) (Options: first-action=start then-action=start)

3、官方建议设置vip运行在haproxy active的节点

通过绑定lb-haproxy-clone与vip服务,将两种资源约束在1个节点;约束后,从资源角度看,其余暂时没有获得vip的节点的haproxy会被pcs关闭

[root@controller01 ~]# pcs constraint colocation add lb-haproxy-clone with vip[root@controller01 ~]# pcs resource vip (ocf::heartbeat:IPaddr2): Started controller01 Clone Set: lb-haproxy-clone [lb-haproxy] Started: [ controller01 ] Stopped: [ controller02 controller03 ]

4、通过high availability management查看资源相关的设置,如下:

​​https://10.20.9.189:2224/managec/openstack-cluster-01/main#/resources/lb-haproxy​​

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Web:Extend- PHP框架
下一篇:Ceph(luminous 版) pool 管理
相关文章

 发表评论

暂时没有评论,来抢沙发吧~