【编者的话】当前,以OpenStack为代表的IaaS开源技术和以Docker为代表的PaaS/CaaS容器技术日益成熟,二者如何强强联合,一直是业界颇为关心的焦点领域。本次分享主要是和大家交流基于Docker容器运行和部署OpenStack。那么,安装OpenStack都有哪些方法呢?对于很多刚接触OpenStack的新人而言,安装无疑是一大挑战,同时也直接提高了学习OpenStack云计算的技术门槛。
【3 天烧脑式容器存储网络训练营 | 深圳站】本次培训以容器存储和网络为主题,包括:Docker Plugin、Docker storage driver、Docker Volume Pulgin、Kubernetes Storage机制、容器网络实现原理和模型、Docker网络实现、网络插件、Calico、Contiv Netplugin、开源企业级镜像仓库Harbor原理及实现等。
一.安装OpenStack有哪些方式
1.DevStack
在相当长一段时间内,DevStack仍将是众多开发者的首选安装工具。该方式主要是通过配置一个安装脚本,执行Shell命令来安装OpenStack的开发环境,支持CentOS、Debian等系列系统。2.RDO
RDO是由Red Hat红帽开源的一个自动化部署OpenStack的工具,支持单节点(all-in-one)和多节点(multi-node)部署。但RDO只支持CentOS系列操作系统。需要注意的是,该项目并不属于OpenStack官方社区项目。3.手动部署
按照社区官方提供的文档,可以使用手动方式部署单节点、多节点、HA节点环境。4.Puppet
Puppet由Ruby语言编写。Puppet是进入OpenStack自动化部署中早期的一个项目。目前,它的活跃开发群体是Red Hat、Mirantis、UnitedStack等。Mirantis出品的Fuel部署工具,其大量的模块代码使用的便是Puppet。5.Ansible
Ansible是一个自动化部署配置管理工具,已被Red Hat收购。它基于Python开发,集合了众多运维工具(Puppet、Chef、SaltStack等)的优点,实现了批量系统配置、批量程序部署、批量运行命令等功能。Ansible一方面总结了Puppet设计上的得失,另一方面也改进了很多设计。比如基于SSH方式工作,故而不需要在被控端安装客户端。6.SaltStack
SaltStack也是一个开源的自动化部署工具,基于Python开发,实现了批量系统配置、批量程序部署、批量运行命令等功能,和Ansible很相似。不同之处是,由于SaltStack的Master和Minion认证机制及工作方式,因此需要在被控端安装Minion客户端。7.TripleO
TripleO项目最早由HP于2013年4月在Launchpad上注册BP,用于完成OpenStack的安装与部署。TripleO全称为“OpenStack On OpenStack”,意思为“云上云”,可以简单理解为利用OpenStack来部署OpenStack,即首先基于V2P(和P2V相反,指把虚拟机的镜像迁移到物理机上)的理念事先准备好一些OpenStack节点(计算、存储、控制节点)的镜像,然后利用已有OpenStack环境的Ironic裸机服务和软件安装部分的diskimage-builder部署裸机,最后通过Heat项目和镜像内的自动化部署工具(Puppet或Chef)在裸机上配置运行OpenStack。和其他部署工具不同的是,TripleO是利用OpenStack已有的基础设施来部署OpenStack的。8.Fuel
Fuel是针对OpenStack的一个可以通过“界面部署”的工具,它大量采用了Python、Ruby和JavaScript等语言。其功能涵盖了通过自动化PXE方式安装操作系统、DHCP服务、Orchestration编排服务和Puppet安装相关服务等,此外还有OpenStack关键业务健康检查和log实时查看等非常好用的功能。9.Kolla
上面说了这么多,现在终于轮到主角上场了——kolla。Kolla是具有广阔应用前景和市场的一个自动化部署工具。相比于其他部署工具,Kolla完全革新地使用了Docker容器技术,将每一个OpenStack服务运行在不同的Docker容器中。小结
如上所述,OpenStack的安装部署方式多种多样,新手应该如何选择呢,这里,我推荐使用Rdo或手动部署方式(过程是艰难的,但能很好的加深对OpenStack的理解);对于老手而言,可以尝试使用Kolla方式,体验Docker和OpenStack融合的新方式。当前,OpenStack除了与Docker融合相关的Kolla项目之外,社区还有诸如Magnum、Murano、Solum等非常优秀的项目。
二.Docker容器化部署OpenStack
什么是Kolla
以前,我们要想在OpenStack版本发布后或者在版本开发过程中,立即安装体验等只能使用DevStack源码方式安装。但现在更多了一种新的选择,——即使用Kolla。该项目由思科于2014年9月提出,是OpenStack社区“Big Tent”开发模式下的项目。Kolla的优势和使用场景体现在如下几个方面:
- 原子性升级或者回退OpenStack部署。
- 基于组件升级OpenStack。
- 基于组件回退OpenStack。
具体而言,Kolla的最终目标是为OpenStack的每一个服务都创建一个对应的Docker镜像,通过Docker镜像将升级的粒度减小到服务级别,从而在升级时对OpenStack的影响降到最小,并且一旦升级失败,也很容易回滚。升级只需要三步:拉取新版本的容器镜像,停止老版本的容器服务,启动新版本的容器。回滚也不需要重新安装包,直接启动老版本的容器服务就行,非常方便。
Kolla可以使用Ansible、Kubernetes或者Mesos来部署OpenStack环境,Kolla负责容器化OpenStack各个服务;后者则负责部署这些容器,搭建出一个可用的OpenStack环境。来实现基于Docker容器的OpenStack服务全生命周期管理,如安装、升级、回滚、迁移等。在部署Docker容器时,默认的网络配置都是Host模式。因为Kolla的Docker镜像粒度很小,它针对每个OpenStack服务都有特定的镜像,所以我们也可以通过Docker命令来操作某个具体的OpenStack服务。
Kolla项目,及其相关的其他项目,如下:
- Kolla项目:负责docker build OpenStack每个服务,如nova-compute容器等;
- Kolla-Ansible项目:使用Ansible部署这些容器,搭建OpenStack环境;
- Kolla-Kubernetes项目:使用Kubernetes部署这些容器,搭建OpenStack环境;
- Kolla-Mesos项目:使用Mesos部署这些容器,搭建OpenStack环境;
简言而之,Kolla就是OpenStack社区的一个用于docker build容器化OpenStack服务的项目,最后,使用其他的社区项目,即kolla-ansible或者kolla-kubernetes执行部署任务。
Kolla为OpenStack的部署提供了有效、快捷、方便、易于维护、方便版本更新与回退的方案。基于Docker容器部署和运维的OpenStack架构,如下图所示:
Kolla所涉及到的技术点,有:
- Docker
- Ansible
- Python
- docker-py
- Jinja2
Kolla支持部署HA高可用性的OpenStack环境,如下图所示,大家应该一看就明白吧。是的,正如其他OpenStack HA部署方案一样,如MySQL采用的是Galera等。
目前,Kolla提供的镜像支持部署如下OpenStack项目,包括但不限于:
- Aodh
- Ceilometer
- Cinder
- Designate
- Glance
- Gnocchi
- Heat
- Horizon
- Ironic
- Keystone
- Magnum
- Mistral
- Murano
- Nova
- Neutron
- Swift
- Tempest
- Zaqar
以及这些基础设施组件:
- Ceph分布式存储
- Openvswitch和Linuxbridge
- MongoDB数据库
- RabbitMQ消息队列服务
- HAProxy和Keepalived 服务高可用组件
- MariaDB数据库等
Kolla的Docker镜像制作,支持红帽的RPM包,Ubuntu和Debian的Deb包,还能支持源码的方式。理论上源码制作的镜像,可以运行在所有的支持容器的操作系统上。
我们可以选择Ansible来做容器的管理,也可以选择Kubernetes或Mesos来管理。目前Ansible已经比较完善,Kubernetes和Mesos还在积极开发中。但我个人感觉,Kubernetes会是未来一段时间的新宠儿,但是它对使用/管理人员的要求会比较高。
Kolla解决的问题
过去,无论是个人还是公司尝试使用OpenStack,在安装和部署,都花费和消耗大量的精力。这其实也是影响OpenStack推广的一个重要障碍。如何让大家从部署的枷锁中解放出来,用好OpenStack,才能真正体现出OpenStack的价值。一般安装好操作系统后,采用Kolla部署OpenStack环境,大概只需要30分钟的时间,就可以搭建完成OpenStack。社区的各种最佳实践,高可用等都集成在上面。Kolla让OpenStack的部署、升级变得更加的优雅。
所谓软件的升级就是把以前老的删掉,再装新的版本。如果你是采用包的安装,例如Rdo,那就非常的痛苦了。如果没有其他定制化开发的需求,使用社区提供的已构建好的OpenStack镜像即可(http://tarballs.openstack.org/kolla/images/)。
OK,下面进入正题吧,咱们用Kolla部署一个Ocata版本的OpenStack(all-in-one环境)。
准备操作系统
这里,我使用一个CentOS 7.2系统(6GB内存、4个CPU、50GB磁盘),配置IP地址(172.16.X.225),并关闭Firewalld和Selinux。安装依赖
加入Docker的repo源
# tee /etc/yum.repos.d/docker.repo << 'EOF'
[dockerrepo]
name=Docker Repository
baseurl=https://yum.dockerproject.org/repo/main/centos/$releasever/
enabled=1
gpgcheck=1
gpgkey=https://yum.dockerproject.org/gpg
EOF
安装EPEL源
yum install -y epel-release
安装和配置Docker服务
1)安装基础包
yum install python-devel libffi-devel gcc openssl-devel git python-pip ansible -y
2)安装Docker 1.12.5
yum install docker-engine-1.12.5 docker-engine-selinux-1.12.5 -y
3)设置Docker
mkdir /etc/systemd/system/docker.service.d
tee /etc/systemd/system/docker.service.d/kolla.conf << 'EOF'
[Service]
MountFlags=shared
EOF
4)重启相关服务
systemctl daemon-reload
systemctl enable docker
systemctl restart docker
5)编辑 /usr/lib/systemd/system/docker.service文件
E=/usr/bin/dockerd
ExecStart=/usr/bin/dockerd --insecure-registry 172.16.70.225:4000
6)重启Docker服务
systemctl daemon-reload
systemctl restart docker
7)这里,可以配置阿里云的Docker加速器(可选),加快pull registry镜像。
mkdir -p /etc/docker
tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://a5aghnme.mirror.aliyuncs.com"]
}
EOF
再重启下Docker服务
systemctl daemon-reload && systemctl restart docker
8)默认Docker的Registry是使用5000端口,对于OpenStack来说,有端口冲突,所以需要改成4000。Pull并启动registry镜像。
docker run -d -v /opt/registry:/var/lib/registry -p 4000:5000 \
--restart=always --name registry registry:2
安装Kolla
1)这里,下载使用Kolla社区的Ocata版本镜像(免去在本地环境docker build的过程,大大加快安装时间)。
wget http://tarballs.openstack.org/kolla/images/centos- binary-registry-ocata.tar.gz
tar zxvf centos-binary-registry-ocata.tar.gz -C /opt/registry/
2)下载kolla-ansible的代码
cd /home
git clone http://git.trystack.cn/openstack/kolla-ansible
3)安装kolla-ansible
cd kolla-ansible && pip install .
4)复制相关文件
cp -r etc/kolla /etc/kolla/
cp ansible/inventory/* /home/
说明:如果是在虚拟机里安装Kolla,希望可以在OpenStack平台上创建虚拟机,那么你需要把virt_type=qemu,默认是KVM。
mkdir –p /etc/kolla/config/nova
cat << EOF > /etc/kolla/config/nova/nova-compute.conf
[libvirt]
virt_type=qemu
EOF
5)生成密码文件
kolla-genpwd
6)编辑 /etc/kolla/passwords.yml文件,配置keystone管理员用户的密码。
keystone_admin_password: admin
同时,也是登录Dashboard,admin使用的密码,你可以根据自己需要进行修改。
7)编辑 /etc/kolla/globals.yml 配置文件
kolla_internal_vip_address: " 172.16.X.225" //访问Dashboard的地址
docker_registry: " 172.16.X.225:4000"
docker_namespace: "lokolla"
network_interface: "eth0" //IP地址为172.16.X.225
neutron_external_interface: "eth1" //该网卡不配置IP地址
如果部署的是单节点,需要编辑/usr/share/kolla-ansible/ansible/group_vars/all.yml
文件,设置enable_haproxy为no。
enable_haproxy: "no"
说明:建议,在执行安装命令前,先使用kolla-ansible –help命令,了解下kolla-ansible支持的具体命令或参数。
执行安装OpenStack的命令
kolla-ansible deploy -i /home/all-in-one -vvvv
如果顺利,这个过程大约需要30分钟时间,这时候,不妨泡杯茶,慢慢品饮。
安装结束后,创建环境变量文件
kolla-ansible post-deploy
这样就创建 了/etc/kolla/admin-openrc.sh 环境变量文件。
安装OpenStack client端
pip install python-openstackclient
部署技巧:
1)如果,在部署过程中失败了,亦或是变更了配置信息,需要重新部署,则先执行如下命令,清除掉已部署的Docker容器,即OpenStack服务。
kolla-ansible destroy -i /home/all-in-one --yes-i-really-really-mean-it
2)除此外,还有一些小工具,在自己需要时,可以使用。
- kolla-ansible prechecks:在执行部署命令之前,先检查环境是否正确;
- tools/cleanup-containers:可用于从系统中移除部署的容器;
- tools/cleanup-host:可用于移除由于网络变化引发的Docker启动的neutron-agents主机;
- tools/cleanup-images:可用于从本地缓存中移除所有的docker image。
最后,可以使用docker ps –a命令查看到OpenStack 所有服务的容器。
验证部署
登录Dashboard
URL:http://172.16.X.225
用户名:admin
密码:admin
接着,我们创建一个镜像,试试。
编辑 /usr/share/kolla-ansible/init-runonce文件,改成国内的trystack镜像源下载,速度快(感谢国内TryStack社区做出的贡献,服务大家)。
运行命令
source /etc/kolla/admin-openrc.sh
cd /usr/share/kolla-ansible
./init-runonce
这将自动创建一个镜像、租户网络等。如下,可以查看到自动创建的cirros测试镜像。
小结
至此,我们便通过Kolla和Ansible,部署成功了一个基于Docker容器运行的OpenStack环境。对于Ceph分布式存储、Haproxy高可用性、OpenDaylight SDN软件定义网络等这些功能,Kolla和Ansible都是支持的。
Troubleshoot
通过Kolla和Ansible部署或运行OpenStack环境时,如果出现问题,通常可以使用如下一些方法来排查/解决。1)查看指定容器(即指定的服务)的输出日志信息。
docker logs container_name
2)进入到fluentd日志收集容器里,查看指定服务的日志。
docker exec -it fluentd bash
接着,cd到/var/log/kolla/SERVICE_NAME目录下。
3)还可以,直接CD到主机的/var/lib/docker/volumes/kolla_logs/_data/目录下,查看指定服务的日志信息。
4)如果在部署时失败,通过日志无法查找到原因,可以使用Ansible的debug模块进行部署代码调试。
Q&A
Q:容器虚拟CPU支持虚拟化吗?Q:Kolla-Ansible部署的OpenStack是否满足生产环境?
A:容器只是一个进程服务,依赖于CPU虚拟化。
Q:OpenStack服务的可靠性,主被仲裁,配置变更等,可以怎么管理呢:
A:完全满足,已有客户上生产环境跑重要业务。
Q: OpenStack容器化部署后数据持久化的问题如何解决?
A:OpenStack服务的可靠性,主被仲裁,Kolla和Ansible均支持包括HAproxy等在内的OpenStack服务和Mariadb数据库的高可用性,社区推荐DB使用主主方式;至于管理,使用Ansible。
Q:通过Kolla-Ansible部署之后的OpenStack对网络是否有要求,或者需要单独配置网络这块?
A:默认情况下,配置文件数据存放在主机的/etc/kolla目录下,数据库数据则在容器中,对于持久化等,可以考虑docker volume等相关方案,多种多样。
Q:可否对Kolla-Ansible项目做Socker化,目的是通过这个镜像去部署OpenStack,减少重复配置Kolla-Ansible的运行环境?
A:使用Kolla-Ansible部署的OpenStack环境,和使用其他方式部署的网络环境一样,管理网、业务网和外网等。
以上内容根据2017年06月27日晚微信群分享内容整理。分享人徐超,现任云开发工程师,著有《OpenStack最佳实践——测试与CI/CD》一书,自2015年起主要从事企业云计算产品自动化部署开发、QA测 试和CI/CD,以及其他研究等相关工作,热爱开源技术。 DockOne每周都会组织定向的技术分享,欢迎感兴趣的同学加微信:liyingjiesa,进群参与,您有想听的话题或者想分享的话题都可以给我们留言。
A:Kolla-Ansible只是一个部署工具,做配置管理。可以把Kolla、Ansible和Docker镜像都放在一个部署模板上,通过这个部署模板去任意 部署OpenStack环境,这类似于Fuel ISO。
有疑问加站长微信联系(非本文作者)