搭建openstack 控制节点ha需要多少节点

openstack controller ha测试环境搭建记录(十)——配置neutron(控制节点)
时间: 10:48:11
&&&& 阅读:84
&&&& 评论:
&&&& 收藏:0
标签:&&&&&&&&&&&&&&&&&&&&&&&&&&&创建neutron用户:mysql -u root -pCREATE DATABASEGRANT ALL PRIVILEGES ON neutron.* TO ‘neutron‘@‘localhost‘ IDENTIFIED BY ‘123456‘;GRANT ALL PRIVILEGES ON neutron.* TO ‘neutron‘@‘%‘ IDENTIFIED BY ‘123456‘;exit创建用户、服务、endpoint:keystone user-create --name neutron --pass 123456keystone user-role-add --user neutron --tenant service --role adminkeystone service-create --name neutron --type network --description "OpenStack Networking"keystone endpoint-create \& --service-id $(keystone service-list | awk ‘/ network / {print $2}‘) \& --publicurl http://myvip:9696 \& --adminurl http://myvip:9696 \& --internalurl http://myvip:9696在每个控制节点安装:yum install -y openstack-neutron openstack-neutron-ml2 python-neutronclient which在每个控制节点修改配置文件:openstack-config --set /etc/neutron/neutron.conf database connection mysql://neutron:123456@myvip/neutronopenstack-config --set /etc/neutron/neutron.conf DEFAULT rpc_backend rabbitopenstack-config --set /etc/neutron/neutron.conf DEFAULT rabbit_password 123456openstack-config --set /etc/neutron/neutron.conf DEFAULT rabbit_hosts controller1:5672,controller2:5672,controller3:5672openstack-config --set /etc/neutron/neutron.conf DEFAULT rabbit_retry_interval 1openstack-config --set /etc/neutron/neutron.conf DEFAULT rabbit_retry_backoff 2openstack-config --set /etc/neutron/neutron.conf DEFAULT rabbit_max_retries 0openstack-config --set /etc/neutron/neutron.conf DEFAULT rabbit_durable_queues trueopenstack-config --set /etc/neutron/neutron.conf DEFAULT rabbit_ha_queues trueopenstack-config --set /etc/neutron/neutron.conf DEFAULT auth_strategy keystoneopenstack-config --set /etc/neutron/neutron.conf keystone_authtoken auth_uri http://myvip:openstack-config --set /etc/neutron/neutron.conf keystone_authtoken identity_uri http://myvip:35357openstack-config --set /etc/neutron/neutron.conf keystone_authtoken admin_user neutronopenstack-config --set /etc/neutron/neutron.conf keystone_authtoken admin_tenant_name serviceopenstack-config --set /etc/neutron/neutron.conf keystone_authtoken admin_password 123456openstack-config --set /etc/neutron/neutron.conf DEFAULT core_plugin ml2openstack-config --set /etc/neutron/neutron.conf DEFAULT service_plugins routeropenstack-config --set /etc/neutron/neutron.conf DEFAULT allow_overlapping_ips Trueopenstack-config --set /etc/neutron/neutron.conf DEFAULT notify_nova_on_port_status_changes Trueopenstack-config --set /etc/neutron/neutron.conf DEFAULT notify_nova_on_port_data_changes Trueopenstack-config --set /etc/neutron/neutron.conf DEFAULT nova_url http://myvip:8774/v2openstack-config --set /etc/neutron/neutron.conf DEFAULT verbose Trueopenstack-config --set /etc/neutron/neutron.conf nova auth_url http://myvip:35357openstack-config --set /etc/neutron/neutron.conf nova auth_plugin passwordopenstack-config --set /etc/neutron/neutron.conf nova project_domain_id defaultopenstack-config --set /etc/neutron/neutron.conf nova user_domain_id defaultopenstack-config --set /etc/neutron/neutron.conf nova region_name RegionOneopenstack-config --set /etc/neutron/neutron.conf nova project_name serviceopenstack-config --set /etc/neutron/neutron.conf nova username novaopenstack-config --set /etc/neutron/neutron.conf nova password 123456openstack-config --set /etc/neutron/neutron.conf ml2 type_drivers flat,vlan,gre,vxlanopenstack-config --set /etc/neutron/neutron.conf ml2 tenant_network_types greopenstack-config --set /etc/neutron/neutron.conf ml2 mechanism_drivers openvswitchopenstack-config --set /etc/neutron/neutron.conf securitygroup enable_security_group Trueopenstack-config --set /etc/neutron/neutron.conf securitygroup enable_ipset Trueopenstack-config --set /etc/neutron/neutron.conf securitygroup& firewall_driver neutron.agent.linux.iptables_firewall.OVSHybridIptablesFirewallDriveropenstack-config --set /etc/neutron/neutron.conf DEFAULT network_api_class nova.network.neutronv2.api.APIopenstack-config --set /etc/neutron/neutron.conf DEFAULT security_group_api neutronopenstack-config --set /etc/neutron/neutron.conf DEFAULT linuxnet_interface_driver nova.network.linux_net.LinuxOVSInterfaceDriveropenstack-config --set /etc/neutron/neutron.conf DEFAULT firewall_driver nova.virt.firewall.NoopFirewallDriveropenstack-config --set /etc/neutron/neutron.conf neutron url http://myvip:9696openstack-config --set /etc/neutron/neutron.conf neutron auth_strategy keystoneopenstack-config --set /etc/neutron/neutron.conf neutron admin_auth_url http://myvip:3openstack-config --set /etc/neutron/neutron.conf neutron admin_tenant_name serviceopenstack-config --set /etc/neutron/neutron.conf neutron admin_username neutronopenstack-config --set /etc/neutron/neutron.conf neutron admin_password 123456初始化数据库:ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.inisu -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron启动相关服务:systemctl restart openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.servicesystemctl enable neutron-server.servicesystemctl start neutron-server.service标签:&&&&&&&&&&&&&&&&&&&&&&&&&&&原文:/endoresu/p/5053075.html
教程昨日排行
&&国之画&&&& &&&&&&
&& &&&&&&&&&&&&&&
鲁ICP备号-4
打开技术之扣,分享程序人生!openstack-ha部署文档 - CSDN博客
openstack-ha部署文档
文档是年初自己手工搭建ha系统的时候写的,后来又提供给其他同事作为部署文档,多次验证过好使。本来不打算发出来,毕竟有一定基础的人照着官方文档(http://docs.openstack.org/ha-guide/)也是可以部署好的,而且技术文档总是写这么详细显得逼格太低了。。。不过毕竟官方文档还是有点粗,一些坑和细节没有体现出来,现在把自己总结的这个发出来给大家尤其是新手参考一下,帮大家少走一些弯路。另外,这个文档主要是针对openstack(kilo)对接vmware写的,某些设置稍有不同,请注意。
1.修改hostname(不同计算节点的hostname一定不可以相同)
vim /etc/hostname
hostname compute-1
2.1 切换到要建立互信的用户(以root为例):
2.2 制作密钥并赋权:
# ssh-keygen -tdsa&&&&&&&&&&&&&& #出现提示默认回车不要输入
# cat .ssh/id_dsa.pub&& .ssh/authorized_keys
# chmod 644~/.ssh/authorized_keys
# chmod 755 ~/.ssh
2.3 把公钥拷贝到所有节点root用户文件夹下:
#scp -r ~/.sshroot@node:~/
2.4 验证互信关系是否生效(没有任何提示或警告则生效):
ssh root@node date
3.更新源:
修改完源后:
yum clean all
yum makecache
yum -y update
4.将各主机的内容添加进hosts并拷贝到所有机器:
vim /etc/hosts
&&&&& &&&&&&&& 10.133.19.118&&&&& controller
vim /etc/resolve.conf
&&& &&&&&&&&&&&& nameserver&&&&& 8.8.8.8
5.关闭selinux:
vim /etc/selinux/config
&&&&& SELINUX=disabled
SELINUXTYPE=targeted
6.安装saltstack(机器少的话直接手动部署就行了,忽略这一步):
6.1 master设置防火墙:
BC-Linux7.1默认没有安装iptables,首先安装iptables服务。
# yum -y install iptables*
# systemctl enable iptables
# systemctl start iptables
停止firewalld服务
systemctl stop firewalld
systemctl disable firewalld
master的iptables配置如下(/etc/sysconfig/iptables)
-A INPUT -p tcp -m multiport --dports
-jACCEPT -m comment --comment &saltsack&
重启iptables,#service iptables restart
6.2 saltstack安装:
vi /etc/resolv.conf
&&&&& nameserver 8.8.8.8
vi /etc/hosts
&&&&& 10.133.5.100&&& mirrors.bclinux.org
yum -y install vim wget
vim /etc/yum.repos.d/saltstack.repo
[saltstack-repo]
name=SaltStack repo for RHEL/CentOS 7
baseurl=/yum/rhel7
gpgcheck=1
gpgkey=/yum/rhel7/SALTSTACK-GPG-KEY.pub
yum clean expire-cache
yum -y update
master: yum -y install salt-master
minion:yum -y install salt-minion
6.3 修改配置文件:
vim /etc/salt/master
& interface: 10.133.19.126
vim /etc/salt/minion
master:10.133.19.126
id:10.133.19.118
6.4启动服务:
chkconfig salt-master on
systemctl restart salt-master.service
chkconfig salt-minion on
systemctl restart salt-minion.service
6.5 master添加节点:
salt-key -A
yum install -y ntp
7.1 ntp server:
vim /etc/ntp.conf
&&&&& server127.127.1.0
fudge 127.127.1.0stratum 0
vim /etc/sysconfig/iptables 添加一行:
-AINPUT -p udp --dport 123 -j ACCEPT
systemctl restart iptables
将系统时间写入硬件:
# hwclock--systohc
重启NTP服务:
#service ntpd restart&&&&&
7.2 ntp client:
vim /etc/ntp.conf
&&&&& server10.133.19.126 iburst
强制刷新时间:
# service ntpd stop
# ntpdate 10.133.19.126
将系统时间写入硬件:
# hwclock --systohc
重启NTP服务:
# service ntpd restart&&&&&
8.iptables配置
BC-Linux7.1默认没有安装iptables,首先安装iptables服务。
# yum -y install iptables*&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
# systemctl enable iptables
# systemctl start iptables
停止firewalld服务
systemctl stop firewalld
systemctl disable firewalld
8.1 控制节点的iptables配置:
vim /etc/sysconfig/iptables
:INPUT ACCEPT [96:6596]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [100:11571]
-A INPUT -p tcp -m state --state NEW -m tcp --dport 22-j ACCEPT
-A INPUT -p tcp -m multiport --dports
-jACCEPT -m comment --comment &saltsack&
-A INPUT -p tcp -m tcp --dport 3306 -j ACCEPT -mcomment --comment &mysql&
-A INPUT -p tcp -m tcp --dport 4369 -j ACCEPT -mcomment --comment &rabbitmq cluster&
-A INPUT -p tcp -m tcp --dport 5000 -j ACCEPT -mcomment --comment &keystone internal api&
-A INPUT -p tcp -m tcp --dport 5672 -j ACCEPT -mcomment --comment &rabbitmq&
-A INPUT -p tcp -m tcp --dport 35357 -j ACCEPT -mcomment --comment &keystone admin api&
-A INPUT -p tcp -m tcp --dport 9292 -j ACCEPT -mcomment --comment &glance api&
-A INPUT -p tcp -m tcp --dport 9191 -j ACCEPT -mcomment --comment &glance registry&
-A INPUT -p tcp -m tcp --dport 8773 -j ACCEPT -mcomment --comment &ec2 api&
-A INPUT -p tcp -m tcp --dport 8774 -j ACCEPT -mcomment --comment &nova api&
-A INPUT -p tcp -m tcp --dport 8775 -j ACCEPT -mcomment --comment &nova metadata&
-A INPUT -p tcp -m tcp --dport 8776 -j ACCEPT -mcomment --comment &cinder-api&
-A INPUT -p tcp -m tcp --dport 8777 -j ACCEPT -mcomment --comment &ceilometer-api&
-A INPUT -p tcp -m tcp --dport 9696 -j ACCEPT -mcomment --comment &neutron server&
-A INPUT -p tcp -m tcp --dport 6080 -j ACCEPT -mcomment --comment &vncproxy&
-A INPUT -p tcp -m tcp --dport 8088 -j ACCEPT -mcomment --comment &bcec portal&
-A INPUT -p tcp -m tcp --dport 10000 -j ACCEPT -mcomment --comment &haproxy monitor&
-A INPUT -p tcp -m tcp --dport 6379 -j ACCEPT -mcomment --comment &redis&
-A INPUT -p tcp -m tcp --dport 15672 -j ACCEPT -mcomment --comment &rabbitmq monitor&
-A INPUT -p tcp -m tcp --dport 25672 -j ACCEPT -m comment--comment &rabbitmq monitor&
-A INPUT -p tcp -m tcp --dport 11211 -j ACCEPT -mcomment --comment &memcache&
-A INPUT -i virbr0 -p udp -m udp --dport 53 -j ACCEPT-m comment --comment &dns&
-A INPUT -i virbr0 -p tcp -m tcp --dport 53 -j ACCEPT-m comment --comment &dns&
-A INPUT -i virbr0 -p udp -m udp --dport 67 -j ACCEPT-m comment --comment &dhcp&
-A INPUT -i virbr0 -p tcp -m tcp --dport 67 -j ACCEPT-m comment --comment &dhcp&
-A INPUT -i virbr0 -p tcp -m tcp --dport 4369 -jACCEPT
-A FORWARD -d 192.168.122.0/24 -o virbr0 -m conntrack--ctstate RELATED,ESTABLISHED -j ACCEPT
-A FORWARD -s 192.168.122.0/24 -i virbr0 -j ACCEPT
-A FORWARD -i virbr0 -o virbr0 -j ACCEPT
-A OUTPUT -o virbr0 -p udp -m udp --dport 68 -j ACCEPT
8.2 计算节点的iptables配置:
vim /etc/sysconfig/iptables
:INPUT ACCEPT [0:0]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [0:0]
-A INPUT -m state --stateRELATED,ESTABLISHED -j ACCEPT
-A INPUT -p icmp -j ACCEPT
-A INPUT -i lo -j ACCEPT
-A INPUT -p tcp -m state--state NEW -m tcp --dport 22 -j ACCEPT
-A INPUT -p tcp --dport16509 -j ACCEPT -m comment --comment &libvirtd&
-A INPUT -p tcp --dport -j ACCEPT -m comment --comment &vncproxy&
8.3 mysql节点的Iptables配置
vim /etc/sysconfig/iptables
:INPUT ACCEPT [0:0]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [0:0]
-A INPUT -m state --stateRELATED,ESTABLISHED -j ACCEPT
-A INPUT -p icmp -j ACCEPT
-A INPUT -i lo -j ACCEPT
-A INPUT -p tcp -m tcp--dport 3306 -j ACCEPT -m comment --comment &RDB&
-A INPUT -p tcp -m tcp--dport 4567 -j ACCEPT -m comment --comment &RDB&
-A INPUT -p tcp -m tcp--dport 4444 -j ACCEPT -m comment --comment &RDB&
8.4 重启iptables
# systemctl restart iptables
8.5其他注意选项
上述参考配置中,端口是向任何源地址开放的,对于安全性要求较高的环境,需要配置放行的原地址,例如对计算节点的vnc,只需要向novncproxy地址开放,如:
-A INPUT -sNOVNCPORXY_IP -p tcp --dport
-j ACCEPT -m comment --comment&vncproxy&
9.keepalived安装配置
keepalived安装在其中两台controller上,负责管理haproxy
9.1 keepalive安装:
yum -y install keepalived ipvsadm
9.2 按实际需求,修改keepalived配置:
vim /etc/keepalived/keepalived.conf
!Configuration File for keepalived
global_defs{
&& notification_email {
&&&&&&& liukuan@
&& notification_email_fromAlexandre.Cassen@firewall.loc
&& smtp_server 192.168.200.1
&& smtp_connect_timeout 30
&& router_idLVS_DEVEL
vrrp_scriptchk_haproxy {
&&& script&/etc/keepalived/haproxy_check.sh&
&&& interval 1
&&& weight -2
vrrp_instanceVI_1 {
&& &state MASTER
&& &interface eno
&&& virtual_router_id 51
&&& priority 100
&&& advert_int 1
&&& authentication {
&&&&&&& auth_type PASS
&&&&&&& auth_pass 1111
&&& virtual_ipaddress {
&&&&&&& 10.133.19.130/24dev eno
vim /etc/keepalived/keepalived.conf
!Configuration File for keepalived
global_defs{
&& notification_email {
&&&&&&& liukuan@
&& notification_email_fromAlexandre.Cassen@firewall.loc
&& smtp_server 192.168.200.1
&& smtp_connect_timeout 30
&& router_idLVS_DEVEL
vrrp_scriptchk_haproxy {
&&& script &/etc/keepalived/haproxy_check.sh&
&&& interval 1
&&& weight -2
vrrp_instanceVI_1 {
&& &state BACKUP
&& &interface eno
&&& virtual_router_id 51
&&& priority 99
&&& advert_int 1
&&& authentication {
&&&&&&& auth_type PASS
&&&&&&& auth_pass 1111
&&& virtual_ipaddress {
&&&&&&& 10.133.19.130/24dev eno
9.3 haproxy脚本:
vim /etc/keepalived/haproxy_check.sh:
#!/bin/bash
if [ ! -f/var/run/haproxy/haproxy.pid ] ; then
&&& /usr/sbin/haproxy -f/etc/haproxy/haproxy.cfg -D
&&& exit 1
&&& exit 0
9.4 启动keepalived
systemctl enable keepalived.service
systemctl start keepalived.service
10.haproxy安装配置
haproxy负责对nova、neutron等服务做负责均衡和高可用
10.1 haproxy安装:
# yum -y install haproxy
10.2 haproxy配置,
vim /etc/haproxy/haproxy.cfg
&&&&&&& log 127.0.0.1local0
&&&&&&& maxconn 65536
&&&&&&& nbproc 1
&&&&&&& ulimit-n 231097
&&&&&&&tune.ssl.default-dh-param 1024
&&&&&&& daemon
&&& log&&&& global
&&& mode&&& http
&&&&&&& option& httplog
&&&&&&& option& dontlognull
&&&&&&& option& forwardfor
&&&&&&& retries 3
&&&&&&& option redispatch
&&&&&&& maxconn 65535
&&&&&&& timeout connect 5s
&&&&&&& timeout client 5m
&&&&&&& timeout server 5m
&&&&&&& timeout check&& 1s
&&&&&&& timeouthttp-request&&& 10s
&&&&&&& timeouthttp-keep-alive 10s
listen Stats *:10000
& &&mode http
&&&&&&& stats enable
&&&&&&& stats uri /
&&&&&&& stats refresh 15s
&&&&&&& stats show-node
&&&&&&& stats show-legends
&&&&&&& stats hide-version
listen horizion
& bind 10.133.19.130:80
& balance& source
& capture& cookie vgnvisitor= len 32
& cookie& SERVERID insert indirect nocache
& mode& http
& option& forwardfor
& option& httpchk
& option& httpclose
& option& httplog
& rspidel& ^Set-cookie:\ IP=
& timeout& client 3h
& timeout& server 3h
& server controller1Controller-118:80 cookie controller1 check inter 2000 rise 2 fall 3
& server controller2Controller-121:80 cookie controller2 check inter 2000 rise 2 fall 3
& server controller3Controller-122:80 cookie controller3 check inter 2000 rise 2 fall 3
listen keystone_common
& bind 10.133.19.130:5000
& balance& roundrobin
& option& httplog
& server keystone1Controller-118:5000 check inter 2000 rise 2 fall 3
& server keystone2Controller-121:5000 check inter 2000 rise 2 fall 3
& server keystone3Controller-122:5000 check inter 2000 rise 2 fall 3
listen keystone_admin
& bind 10.133.19.130:35357
& balance& roundrobin
& option& httplog
& server keystone1Controller-118:35357 check inter 2000 rise 2 fall 3
& server keystone2Controller-121:35357 check inter 2000 rise 2 fall 3
& server keystone3Controller-122:35357 check inter 2000 rise 2 fall 3
listen nova_compute_api
& bind 10.133.19.130:8774
& balance& roundrobin
& option& httplog
& server nova1Controller-118:8774 check inter 2000 rise 2 fall 3
& server nova2Controller-121:8774 check inter 2000 rise 2 fall 3
& server nova3Controller-122:8774 check inter 2000 rise 2 fall 3
listen novncproxy
& bind 10.133.19.130:8774
& balance& roundrobin
& option& httplog
& server nova1Controller-118:6080 check inter 2000 rise 2 fall 3
& server nova2Controller-121:6080 check inter 2000 rise 2 fall 3
& server nova3Controller-122:6080 check inter 2000 rise 2 fall 3
listen nova_metadata_api
& bind 10.133.19.130:8775
& balance& roundrobin
& option& httplog
& server nova1Controller-118:8775 check inter 2000 rise 2 fall 3
& server nova2Controller-121:8775 check inter 2000 rise 2 fall 3
& server nova3Controller-122:8775 check inter 2000 rise 2 fall 3
listen cinder_api
& bind 10.133.19.130:8776
& balance& roundrobin
& option& httplog
& server cinder1Controller-118:8776 check inter 2000 rise 2 fall 3
& server cinder2Controller-121:8776 check inter 2000 rise 2 fall 3
& server cinder3Controller-122:8776 check inter 2000 rise 2 fall 3
listen glance_api
& bind 10.133.19.130:9292
& balance& roundrobin
& option& httplog
& server glance1Controller-118:9292 check inter 2000 rise 2 fall 3
& server glance2Controller-121:9292 check inter 2000 rise 2 fall 3
& server glance3Controller-122:9292 check inter 2000 rise 2 fall 3
listen glance_registry
& bind 10.133.19.130:9191
& balance& roundrobin
& option& httplog
& server glance1Controller-118:9191 check inter 2000 rise 2 fall 3
& server glance2Controller-121:9191 check inter 2000 rise 2 fall 3
& server glance3Controller-122:9191 check inter 2000 rise 2 fall 3
listen neutron_api
& bind 10.133.19.130:9696
& balance& roundrobin
& option& httplog
& server cinder1Controller-118:9696 check inter 2000 rise 2 fall 3
& server cinder2Controller-121:9696 check inter 2000 rise 2 fall 3
& server cinder3Controller-122:9696 check inter 2000 rise 2 fall 3
listen rdb_mysql
& bind 10.133.19.130:3306
& balance& leastconn
& mode& tcp
& option& mysql-check user haproxy
& option& tcpka
& option& tcplog
& option& clitcpka
& option& srvtcpka
& timeout client& 28801s
& timeout server& 28801s
& server mysql1 Mysql-123:3306check inter 2000 rise 2 fall 3
& server mysql2 Mysql-124:3306backup check inter 2000 rise 2 fall 3
& server mysql3 Mysql-125:3306backup check inter 2000 rise 2 fall 3
10.3 启动haproxy
/usr/sbin/haproxy -f /etc/haproxy/haproxy.cfg -D
11. rabbitmq-cluster部署
yum -y install rabbitmq-server
systemctl enable rabbitmq-server.service
systemctl start rabbitmq-server.service
systemctl stop rabbitmq-server.service
scp /var/lib/rabbitmq/.erlang.cookie root@NODE:/var/lib/rabbitmq/.erlang.cookie
chown rabbitmq:rabbitmq/var/lib/rabbitmq/.erlang.cookie
chmod 400 /var/lib/rabbitmq/.erlang.cookie
systemctl start rabbitmq-server.service
rabbitmqctl cluster_status
11.2 Run the followingcommands on each node except the first one:
rabbitmqctl stop_app
rabbitmqctl join_cluster rabbit@Controller-118
rabbitmqctl start_app
11.3 在first节点执行:
rabbitmqctl set_policy ha-all '^(?!amq\.).*' '{&ha-mode&:&all&}'
rabbitmqctl add_user openstack 7e65cb73ee &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&RABBIT_PASS&&&&&&&&&&&&&&&&&&&&
rabbitmqctl set_permissionsopenstack &.*& &.*& &.*&
12.1 安装mariadb:
yum install -ymariadb-galera-server mariadb-galera-common galera rsync perl-DBD-MySQL socat
12.2 初始化:
对一台mysql节点执行以下操作:
# systemctl start mariadb
#mysql_secure_installation
&&&&&& set root password:457b3cd29&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&& &&&&&&MYSQL_PASS
&&&&&& Disallow root login remotely? [Y/n]& n
12.3 配置集群:
对所有mysql节点执行以下操作:
关闭数据库:
systemctl stop mariadb
修改配置文件:
&&&&& vim &/f.f
bind-address=10.133.19.123&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&& MYSQL_NODE_IP
wsrep_cluster_address=&gcomm://Mysql-123,Mysql-124,Mysql-125&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&MYSQL_NODES_HOSTNAME
wsrep_node_name=Mysql-123 &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
MYSQL_NODE_HOSTNAME
wsrep_node_address=10.133.19.123&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& MYSQL_NODE_IP&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&
wsrep_provider=/usr/lib64/galera/libgalera_smm.so
wsrep_sst_auth=root:457b3cd29
12.4 启动集群
cp /usr/bin/rsync /usr/sbin
启动 MariaDB Galera Cluster 服务,在其中一台mysql节点执行以下操作:
/usr/libexec/mysqld--wsrep-new-cluster --user=root &
继续启动其他节点,在其他mysql节点执行以下操作:
systemctl start mariadb
创建haproxy用户并可以无密码登陆,在其中一台mysql节点执行以下操作:
CREATE USER'haproxy'@'%';
update user setplugin='mysql_native_password' where user='haproxy'
13.Openstack安装
yum -y install http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
yum -y install http://rdo.fedorapeople.org/openstack-kilo/rdo-release-kilo.rpm
yum -y upgrade
yum -y install openstack-selinux
on one of mysql node:
mysql -u root -p 457b3cd29&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &
MYSQL_PASS
&&&&& CREATE DATABASE
&&&&& GRANTALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' IDENTIFIED BY '791eb78bed6ff585d194';&&&&&&&&&&& &&&&&&&&&&KEYSTONE_DBPASS
&&&&& GRANTALL PRIVILEGES ON keystone.* TO 'keystone'@'%' IDENTIFIED BY'791eb78bed6ff585d194';&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&& &&&&KEYSTONE_DBPASS
on all controller node:
yum -y install openstack-keystone httpd mod_wsgipython-openstackclient memcached python-memcached
systemctl enable memcached.service
systemctl start memcached.service
chown root:keystone /etc/keystone/keystone.conf
vim /etc/keystone/keystone.conf
&&& &&[DEFAULT]
admin_token =5ae9cb50ad07b3aeafcb&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&ADMIN_TOKEN
verbose = True
&&&& &&[database]
connection =mysql://keystone:791eb78bed6ff585d194@10.133.19.130/keystone&&&&&&&&&&&&&&&&&&&&
KEYSTONE_DBPASS &MYSQL_VIP
&&& &&&[memcache]
servers = 10.133.19.118:.19.121:.19.122:11211&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
CONTROLLER_IP
&&&&& &provider =keystone.token.providers.uuid.Provider
driver =keystone.token.persistence.backends.memcache.Token
driver =keystone.contrib.revoke.backends.sql.Revoke
su -s /bin/sh -c &keystone-managedb_sync& keystone
vim /etc/httpd/conf/httpd.conf
ServerName 10.133.19.118&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&本机IP
Listen 10.133.19.118:80&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&
vim/etc/httpd/conf.d/wsgi-keystone.conf
Listen 10.133.19.118:5000&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
Listen 10.133.19.118:35357&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
&VirtualHost *:5000&
&&&WSGIDaemonProcess keystone-public processes=5 threads=1 user=keystonegroup=keystone display-name=%{GROUP}
&&&WSGIProcessGroup keystone-public
&&&WSGIScriptAlias / /var/www/cgi-bin/keystone/main
&&&WSGIApplicationGroup %{GLOBAL}
&&&WSGIPassAuthorization On
&&& LogLevelinfo
&&&ErrorLogFormat &%{cu}t %M&
&&& ErrorLog/var/log/httpd/keystone-error.log
&&&CustomLog /var/log/httpd/keystone-access.log combined
&/VirtualHost&
&VirtualHost *:35357&
&&&WSGIDaemonProcess keystone-admin processes=5 threads=1 user=keystonegroup=keystone display-name=%{GROUP}
&&&WSGIProcessGroup keystone-admin
&&&WSGIScriptAlias / /var/www/cgi-bin/keystone/admin
&&&WSGIApplicationGroup %{GLOBAL}
&&&WSGIPassAuthorization On
&&& LogLevelinfo
&&&ErrorLogFormat &%{cu}t %M&
&&& ErrorLog/var/log/httpd/keystone-error.log
&&&CustomLog /var/log/httpd/keystone-access.log combined
&/VirtualHost&
mkdir -p /var/www/cgi-bin/keystone
curl http://git.openstack.org/cgit/openstack/keystone/plain/httpd/keystone.py?h=stable/kilo| tee /var/www/cgi-bin/keystone/main /var/www/cgi-bin/keystone/admin
chown -R keystone:keystone/var/www/cgi-bin/keystone
chmod 755 /var/www/cgi-bin/keystone/*
systemctl enable httpd.service
systemctlstart httpd.service&&&&&
Create the serviceentity and API endpoint
以下部分在一台控制节点执行即可
export OS_TOKEN=5ae9cb50ad07b3aeafcb&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
OPENSTACK ADMIN_TOKEN
export OS_URL=http://10.133.19.130:3 &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
openstack service create --name keystone--description &OpenStack Identity& identity
openstack endpoint create \
--publicurl
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--internalurl &&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--adminurl &&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--region RegionOne \
openstack project create --description &AdminProject& admin
openstack user create --password-prompt admin
&&&&&User Password:dc43a1264d16& &&& &&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
ADMIN PROJECT PASS
openstack role create admin
openstack role add --project admin --user adminadmin
openstack project create --description&Service Project& service
keystone endpoint-list
vim admin-openrc.sh
exportOS_PROJECT_NAME=admin
exportOS_TENANT_NAME=admin
exportOS_USERNAME=admin
export OS_PASSWORD=dc43a1264d16&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
ADMIN PASS
exportOS_AUTH_URL=http://10.133.19.130:3&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&
export OS_IMAGE_API_VERSION=2
&(create demo client undo)
source admin-openrc.sh
openstack token issue
mysql node:
mysql -uroot -p457b3cd29&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
MYSQL_PASS
CREATE DATABASE
GRANT ALL PRIVILEGES ONglance.* TO 'glance'@'localhost' IDENTIFIED BY '8cd992259b';&&&&&&&&&&&&&&&&& &&&&&&
GLANCE_DBPASS
(openssl rand -hex 10GLANCE_DBPASS)
GRANT ALL PRIVILEGES ONglance.* TO 'glance'@'%' IDENTIFIED BY '8cd992259b';&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&
GLANCE_DBPASS
(openssl rand -hex 10GLANCE_DBPASS)
以下部分在一台控制节点执行即可
source admin-openrc.sh
openstack user create --password-prompt glance
&&&&&User Password: dc43a1264d16&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
GLANCE_PASS
openstack role add --project service --user glanceadmin
openstack service create --name glance--description &OpenStack Image service& image
openstack endpoint create \
--publicurl http://10.133.19.130:9292 \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--internalurlhttp://10.133.19.130:9292 \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--adminurlhttp://10.133.19.130:9292 \&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--region RegionOne \&&&&&&&&&&&
all controller node:
yum -y install openstack-glance python-glancepython-glanceclient
vim /etc/glance/glance-api.conf
notification_driver =messaging
verbose = True
bind_host=10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
registry_host = 10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&
[database]
connection = mysql://glance:8cd.133.19.130/glance&&&
&GLANCE_DBPASS&& MYSQL_VIP
[keystone_authtoken]
auth_uri = &&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
auth_url = & &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
auth_plugin = password
project_domain_id =default
user_domain_id =default
project_name = service
username = glance
password= dc43a1264d16&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
GLANCE_PASS
[paste_deploy]
flavor=keystone
[glance_store]
default_store = file
filesystem_store_datadir= /var/lib/glance/images/
vim /etc/glance/glance-registry.conf
notification_driver =messaging
verbose = True
bind_host=10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
[database]
connection =mysql://glance:8cd992259b@10.133.19.123/glance&&& &GLANCE_DBPASS&& MYSQL_VIP
[keystone_authtoken]
auth_uri = &&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
auth_url = & &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
auth_plugin = password
project_domain_id =default
user_domain_id =default
project_name = service
username = glance
password= dc43a1264d16&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
GLANCE_PASS
[paste_deploy]
flavor = keystone
su -s /bin/sh -c &glance-manage db_sync&glance
systemctl enable openstack-glance-api.serviceopenstack-glance-registry.service
systemctl start openstack-glance-api.serviceopenstack-glance-registry.service
glance上传镜像
vmware_ostype字段需要填写正确,否则创建虚拟机会报错!
具体依据操作系统而定,请参考链接:
一般常用的有:
rhel6_64Guest 、rhel6Guest、rhel7_64Guest、rhel7Guest、ubuntu64Guest、ubuntuGuest
glance image-create --name centos6.5.vmdk \
--visibility=public \
--container-format=bare \
--disk-format=vmdk \
--property vmware_disktype=&sparse& \
--property hypervisor_type=&vmware& \
--property vmware_adaptertype=&ide& \
& centos6.5.vmdk&&&&&&&&&&&&&&&&&&&&&&&&&&&
One of mysql node:
mysql -uroot -p457b3cd29
&&&&& CREATEDATABASE
&&&&& GRANTALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY 'b64e4c49849ddbf66491';
(openssl rand -hex 10NOVA_DBPASS)
GRANT ALL PRIVILEGES ONnova.* TO 'nova'@'%' IDENTIFIED BY 'b64e4c49849ddbf66491';
(openssl rand -hex 10NOVA_DBPASS)
one of controller node:
source admin-openrc.sh
openstack user create --password-prompt nova
User Password:f48b1755c45c &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&
openstack role add --project service --user novaadmin
openstack service create --name nova --description&OpenStack Compute& compute
openstack endpoint create \
--publicurl http://10.133.19.130:8774/v2/%\(tenant_id\)s\&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--internalurlhttp://10.133.19.130:8774/v2/%\(tenant_id\)s \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--adminurlhttp://10.133.19.130:8774/v2/%\(tenant_id\)s \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--regionRegionOne \
all controller node:
yum -y install openstack-nova-apiopenstack-nova-cert openstack-nova-conductor openstack-nova-consoleopenstack-nova-novncproxy openstack-nova-scheduler python-novaclient
vim /etc/nova/nova.conf
notification_driver=messaging
memcached_servers =172.20.2.32:.2.33:.2.34:11211
rpc_backend = rabbit
my_ip = 10.133.19.118&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
vncserver_listen = 10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
vncserver_proxyclient_address = 10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
ec2_listen=10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
osapi_compute_listen=10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
metadata_listen=10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
s3_listen=10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
verbose = True
[database]
connection =mysql://nova:b64e4c49849ddbf.19.130/nova&&&& GLANCE_DBPASS MYSQL_VIP
[oslo_messaging_rabbit]
rabbit_hosts = Controller-118:5672,Controller-121:5672,Controller-122:5672
RABBIT_CLUSTER
rabbit_userid =openstack
rabbit_password = 7e65cb73ee&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
RABBIT_PASS
rabbit_retry_interval=1
rabbit_retry_backoff=2
rabbit_max_retries=0
rabbit_durable_queues=true
rabbit_ha_queues=true &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
[keystone_authtoken]
auth_uri= &&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
auth_url = & &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&
auth_plugin = password
project_domain_id =default
user_domain_id = default
project_name = service
username = nova
password = f48b1755c45c&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
host = 10.133.19.130&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
[oslo_concurrency]
lock_path = /var/lib/nova/tmp&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &
host_ip=&10.133.19.150&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_IP
host_username = &&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_USER_NAME
host_password =SYsy*123456&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_PASS
cluster_name =cluster_5&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
CLUSTER_NAME
disable_neutron_nsx =True
# 如果VMware中Management network和VM network不是同一块物理网卡,修改此选项。
# Physical ethernet adapter name forvlan networking
# vlan_interface= vmnic0
以下有关网络的配置一般由网络组完成
neutron’s:
network_api_class =nova.network.neutronv2.api.API
security_group_api = neutron
linuxnet_interface_driver= nova.network.linux_net.LinuxOVSInterfaceDriver
firewall_driver =nova.virt.firewall.NoopFirewallDriver
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&& VIP
auth_strategy = keystone
admin_auth_url =
&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
admin_tenant_name =service
admin_username =neutron
admin_password =187e481d3791&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
NEUTRON_PASS
enable_vmware_mech_driver= True
vmware_network_name_prefix= br
su -s /bin/sh -c &nova-manage db sync&nova
systemctl enable openstack-nova-api.serviceopenstack-nova-cert.service openstack-nova-consoleauth.service openstack-nova-scheduler.serviceopenstack-nova-conductor.serviceopenstack-nova-novncproxy.service
systemctl start openstack-nova-api.serviceopenstack-nova-cert.service openstack-nova-consoleauth.serviceopenstack-nova-scheduler.service openstack-nova-conductor.serviceopenstack-nova-novncproxy.service
computenode
yum -y install openstack-nova-compute sysfsutils
vim /etc/nova/nova.conf
notification_driver=messaging
verbose = True
compute_driver=vmwareapi.VMwareVCDriver
rpc_backend = rabbit
auth_strategy =keystone
my_ip = 10.133.19.119&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
&&&& &&&&&&&&&&&&&&&&&&&&&& HOST_IP
vnc_enabled = True
vncserver_listen = 10.133.19.119&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
vncserver_proxyclient_address = 10.133.19.119&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
novncproxy_base_url = http://10.133.19.130:6080/vnc_auto.html&&
&&&&&&&&&&&&&&&&&&&&&&&&&&& VIP
[oslo_messaging_rabbit]
rabbit_hosts = Controller-118:5672,Controller-121:5672,Controller-122:5672&&&&&&&&&&&&&&&
RABBIT_CLUSTER
rabbit_userid = openstack
rabbit_password = 7e65cb73ee&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&
RABBIT_PASS
rabbit_retry_interval=1
rabbit_retry_backoff=2
rabbit_max_retries=0
rabbit_durable_queues=true
rabbit_ha_queues=true&&
[keystone_authtoken]
auth_uri = &&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
auth_url = & &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&
auth_plugin = password
project_domain_id =default
user_domain_id = default
project_name = service
username = nova
password = f48b1755c45c&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
host = 10.133.19.130 &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
[oslo_concurrency]
lock_path = /var/lib/nova/tmp
host_ip= 10.133.19.150&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_IP
host_username = &&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_USER_NAME
host_password= SYsy*123456&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_PASS
cluster_name= cluster_5&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
CLUSTER_NAME
disable_neutron_nsx = True
# 如果VMware中Management network和VM network不是同一块物理网卡,修改此选项。
# Physical ethernet adapter name forvlan networking
# vlan_interface= vmnic0
systemctlenable openstack-nova-compute.service
systemctlstart openstack-nova-compute.service
yum -y installopenstack-dashboard httpd mod_wsgi memcached python-memcached
vim /etc/openstack-dashboard/local_settings
&OPENSTACK_HOST =&10.133.19.130&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
ALLOWED_HOSTS= '*'
'default':{
'BACKEND':'django.core.cache.backends.memcached.MemcachedCache',
'LOCATION': '127.0.0.1:11211',
OPENSTACK_KEYSTONE_DEFAULT_ROLE =&user&
TIME_ZONE = &UTC&
setsebool-P httpd_can_network_connect on
chown -Rapache:apache /usr/share/openstack-dashboard/static
systemctlenable httpd.service memcached.service
systemctlrestart httpd.service memcached.service
mysql node:
mysql -u root -p 457b3cd29&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
MYSQL_PASS
CREATE DATABASE
GRANT ALL PRIVILEGES ONcinder.* TO 'cinder'@'localhost' IDENTIFIED BY 'f1eb161f803e7ad16290';
(openssl rand -hex 10CINDER_DBPASS)
GRANT ALL PRIVILEGES ONcinder.* TO 'cinder'@'%' IDENTIFIED BY 'f1eb161f803e7ad16290';
(openssl rand -hex 10CINDER_DBPASS)
以下部分在一台控制节点执行即可:
source admin-openrc.sh
openstack user create --password-prompt cinder
&&&&& UserPassword: b03b116bf3f3&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& CINDER_PASS
openstack role add --project service --user cinderadmin
openstack service create --name cinder--description &OpenStack Block Storage& volume
openstack service create --name cinderv2--description &OpenStack Block Storage& volumev2
openstack endpoint create \
--publicurlhttp://10.133.19.130:8776/v2/%\(tenant_id\)s \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--internalurlhttp://10.133.19.130:8776/v2/%\(tenant_id\)s \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--adminurlhttp://10.133.19.130:8776/v2/%\(tenant_id\)s \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--regionRegionOne \
openstack endpoint create \
--publicurl http://10.133.19.130:8776/v2/%\(tenant_id\)s\&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--internalurlhttp://10.133.19.130:8776/v2/%\(tenant_id\)s \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--adminurlhttp://10.133.19.130:8776/v2/%\(tenant_id\)s \&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
--region RegionOne \
all controller node:
yum -y install openstack-cinderpython-cinderclient python-oslo-db targetcli python-oslo-log MySQL-python
chown -R cinder:cinder /etc/cinder/cinder.conf
cd /var/lock
mkdir cinder
chown -R cinder:cinder cinder
vim /etc/cinder/cinder.conf
glance_host=10.133.19.130&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& VIP
host=vmware_datastore
notification_driver=messaging
auth_strategy =keystone
rpc_backend = rabbit
verbose = True
vmware_host_ip = 10.133.19.150&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_IP
vmware_host_username = &&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_USER_NAME
vmware_host_password = SYsy*123456&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
VCENTER_PASS
volume_driver=cinder.volume.drivers.vmware.vmdk.VMwareVcVmdkDriver
my_ip=10.133.19.118&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
osapi_volume_listen=172.20.2.32
[database]
connection =mysql://cinder:f1eb161f803e7ad.19.123/cinder&&&&&&&&&&&&&&
&&CINDER_DBPASSMYSQL_VIP
[oslo_messaging_rabbit]
rabbit_hosts =Controller-118:5672,Controller-121:5672,Controller-122:5672&&&&&&&&&&&&&&
RABBIT_CLUSTER
rabbit_userid =openstack
rabbit_password = 7e65cb73ee&&&&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
RABBIT_PASS
rabbit_retry_interval=1
rabbit_retry_backoff=2
rabbit_max_retries=0
rabbit_durable_queues=true
rabbit_ha_queues=true&&&&&
[keystone_authtoken]
auth_uri = &&& &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
auth_url = & &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
auth_plugin = password
project_domain_id =default
user_domain_id =default
project_name = service
username=cinder&&&& &
password = b03b116bf3f3&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
CINDER_PASS&&&&&&&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&&&&&&
[oslo_concurrency]
lock_path=/var/lock/cinder
su -s /bin/sh -c &cinder-manage db sync&cinder
systemctlenable openstack-cinder-api.service openstack-cinder-scheduler.serviceopenstack-cinder-volume.service
systemctlstart openstack-cinder-api.service openstack-cinder-scheduler.serviceopenstack-cinder-volume.service
本文已收录于以下专栏:
相关文章推荐
1、CAP理论
1) CAP 理论给出了3个基本要素:
一致性 ( Consistency) :任何一个读操作总是能读取到之前完成的写操作结果;
可用性 ( Availabi...
OpenStack Liberty 高可用性概述和参考-第一部分
这篇文章由Avishay Traeger 和 Shimshom Zimmerman编写。 
      OpenSta...
版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处!
cat /usr/lib/python2.6/site-packages/cinder--py2...
根据服务自身状况,HA 分为 Active/Active 和 Active/Passive 两种
    Active/Active:   适合于 stateless/stateful 服务,常用 ...
Cinder 真正负责 Volume 管理的组件是 volume provider。
Cinder 支持多种 volume provider,LVM 是默认的 volume provider。
3. 部分 OpenStack 方案提供者的 HA 方案
3.1 RDO HA
这里 有完整的 RDO HA 部署方案:
该配置最少需要五台机器:
一台(物理或者虚拟)服务器部署 nf...
OneStack:在Ubuntu12.04(precise)上一键安装部署Opentack Essex
提醒:如果你喜欢折腾,喜欢自己一步一步安装各个功能组件和配置conf文件,你可以略过此文。...
为了保证云平台的稳定性,需要做很多部分的高可用。比如控制节点高可用、计算节点高可用、网络节点高可用、存储的高可用等;
控制节点的高可用与网络节点的高可用都有官方的文档,有详细的安装步骤,实现起来相对来...
在前面的博文中,主要分析了Glance及Nova相关的代码,从这篇文章开始我将转到Cinder的源码分析上来。Cinder模块在Openstack中为云主机提供块存储,主要包含:cinder-api,...
在前一篇博文中,我分析了cinder-api启动过程中WSGI应用的加载及路由的建立过程,本文将分析WSGI服务器的启动及其接收客户端请求并完成方法映射的过程,请看下文的分析内容:
他的最新文章
讲师:宋宝华
讲师:何宇健
您举报文章:
举报原因:
原文地址:
原因补充:
(最多只允许输入30个字)

我要回帖

更多关于 openstack 控制节点 的文章

 

随机推荐