01 2017 档案
摘要:端口回流故障场景,常见于内网启用了Server服务器,使用出口路由设备的外网口NAT映射了一个公网地址,域内内网主机访问了这个公网地址,访问不通。 故障容易出现在办公网内的带有对外Server测试环境,IDC生产网内环境。故障原理参见 http://blog.sina.com.cn/s/blog_4
阅读全文
摘要:我们知道,最简单的keepalive vrrp作出来的VIP实例,征用了2台服务器,生成1个VIP,也就是说,基础实配置实例中,我们的业务流量只会流向其中一台服务器,另一台就空闲了,明显示合, 能否做2个VRRP 的VIP,分配生效在2台上呢,答案是可以的。但这个常规的VRRP在 openstack
阅读全文
摘要:Jumpserver是国内一款开源的轻便的跳板机系统,他们的官网:http://www.jumpserver.org/ 使用这款软件意在提高公司内部登录生产环境服务器的便捷性,权限分配细化,以及后台管理的可视化,审计日志的WEB化(哪怕用户vi一个文件,在里面做了什么样的操作,都能审计)。本文档参考
阅读全文
摘要:可参考http://www.centoscn.com/CentosServer/dns/2014/0113/2355.html 布署keepalive高可用方式 此方案只适合小型企业,规模少的情况下使用,解析量大的时候还是用bind最好。 如里添加本地内网自有域名劫持解析,只需在已安装的dnsmas
阅读全文
摘要:安装方式可借鉴http://www.cnblogs.com/juandx/p/5339254.html 安装方式
阅读全文
摘要:代码版本控制系统有人喜欢用SVN,有人喜欢用GIT 1、环境 os:centos7 apache:2.4.6 python:2.7 --自带 submin2:2.2.1 2、安装apache 等软件 yum install -y mod_dav_svn apr-util-sqlite apr-uti
阅读全文
摘要:samba共享文件夹,较Window自带的比较:开源,安全 建议安装samba4,兼容性好 1.安装samba #yum -y install samba4 samba4-client 2.备份samba配置文件 #cp /etc/samba/smb.conf /etc/samba/smb.conf
阅读全文
摘要:规划思路如下,可灵活变化
阅读全文
摘要:参考http://www.cnblogs.com/likehua/p/3968689.html的思路,我安装的是zabbix 3.0 从zabbix官网下载windown的 Zabbix pre-compiled agents包 在本地解压,上传至samba共享机 打通Windown Server到
阅读全文
摘要:那如果要批量修改被管机器的某个配置文件怎么做?以下给出一个最简单案例。 先在主管机器master上查看/etc/salt/master配置文件 看到有以下几行配置文件 # file_roots: # base: # - /srv/salt/ # dev: # - /srv/salt/dev/serv
阅读全文
摘要:借用链接http://www.cnblogs.com/liuyansheng/p/6094122.html的安装方式,我再同步一下其它操作系统的安装方式,由原Docker官网拷贝 Ubuntu1404 - 添加 SaltStack repository key: wget -O - https://
阅读全文
摘要:Docker-Compose是一个部署多个容器的简单但是非常必要的工具. 登录Docker客户端的服务器(默认是安装了docker-engine的服务器),再安装compose插件 # yum install python-pip python-dev -y # pip install -U doc
阅读全文
摘要:10.40.42.10上,也就是对应的VRRP中的10.40.42.1和2上,配置nginx tcp代理 # cat 4000_manager.venic.com_10.40.100.141-142_4000.conf upstream manager.venic.com { server 10.4
阅读全文
摘要:10.40.100.143 docker-node0.venic.com 10.40.100.144 docker-node1.venic.com 原用swarm镜像 直接启动 10.40.100.143上 docker run -d --restart=always --name node0 do
阅读全文
摘要:主机分配如下,支持双活,中断其中1台,primary会通过consul自动重新选举 10.40.100.141 docker-manager0.venic.com 10.40.100.142 docker-manager1.venic.com 首先在镜像服务器上148上,拉取一个官网 的 consu
阅读全文
摘要:参考官网集群配置方式 https://hub.docker.com/r/progrium/consul/ 集群中需要manager与node能通信consul的发现服务,不然,管理节点选举不了,无法执行docker 命令。 集群中consul工作3台的机器,大于等2台时,集群仍正常工作,如果,发生只
阅读全文
摘要:在10.40.100.148上 # docker run -d -p 5000:5000 --restart=always --name docker-registry.venic.com -v /data:/var/lib/registry registry 参数说明: --restart=alw
阅读全文
摘要:在读完《Docker技术入门与实践》这本书后,基本上已对Docker了有一些入门的理解,以及我们为什么要使用Docker 答:我们发现在实际工作中,通过openstack一旦把一个VM创建给开发,或者测试人员后,便很难再回收回来。 openstack使用的KVM或Xen,均是采用声明内存的方式,并且
阅读全文
摘要:我们知道,zabbix安装后自带Template OS Linux 模版已满足了绝大部分Linux服务器的基础环境监控,只是我们在其模版上稍微修改,可配合将SWAP监控取消,另存为一个叫OS Linux noswap的模版就可以我们的VM使用。 但是网络设备呢,zabbix的官网上提供了很多的关于网
阅读全文
摘要:使用这个服务的前提是,你必须要有一个微信订阅号,或者公众号,并且是通过认证的号 因为认证过后的号才有模版消息和获取用户openid等信息的权限 ,如下,登录微信公众号的登录页后,底下有个接口权限的展示 我们可以理解为它类传于邮件发送告警的思路, 首先,你需要关注你们的微信公众号,其次zabbix后需
阅读全文
摘要:由于传统的邮件推送脚本使用smtp 25端口,在各大邮箱提供商已不适用,已经向SSL过渡,这里以QQ邮箱为例,使用SSL 465端口 登录zabbix-server 进入 cd /usr/lib/zabbix/alertscripts 创建一个动作脚本。 vi send_mail.py #!/usr
阅读全文
摘要:使用管理员登录zabbix后,在配置 自动发现--创建发现规则 如下:我们的需求是监听办公网内openstack的所有虚拟机,在其VM创建后,自动加到zabbix监控中来,并自动关联监控模版 可以通过PING IP方式,或者通过zabbix-agent端口10050嗅探方式 接着创建一个动作, 这里
阅读全文
摘要:还有一种创建方式 是使用py开发工具,调用openstackclient的方法进行创建实例 ,好处就是可随意指定我们要的虚拟机IP地址,需求的场景就是,某天我们需要主动分配一个比较熟知的IP用作某个服务组件 或者某天,你需要打包一个实例的快照,终止实例后,你想通过快照的方式将它恢复为原来的IP,可以
阅读全文
摘要:某天,由于Linux服务器默认没有DNS缓存功能,每次服务器每访问一个http域名链接时,都会触发一次DNS域名解析查询,降低了调用API接口的时延,所以我司后续启用的内网的dnsmasq DNS服务功能,需要将实例的DNS IP进行修改 登录一台controller source admin-op
阅读全文
摘要:使用openstack在生产环境创建的一台虚拟机 环境 CentOS7 4核4G内存40G硬盘 IP:10.120.150.150 镜像默认关闭防火墙,selinux ,NetworkManager,调高了文件句柄,和线程数 rpm -ivh http://repo.zabbix.com/zabbi
阅读全文
摘要:客户端的安装相对较为简单,主要是更新它的repo源 以CentOS7为例 rpm -ivh http://repo.zabbix.com/zabbix/3.0/rhel/7/x86_64/zabbix-release-3.0-1.el7.noarch.rpm Centos6为例 rpm -ivh h
阅读全文
摘要:通过openstack环境,开通了2台只有根分区的虚拟机, 目的是为了监控公司所有的物理机,网络设备,虚拟机,总计300个台以上,推荐配置,zabbix官方文档是有给出指引的 环境:CentOS7 zabbix版本,3.0.X (3版本开始支持中文界面) IP:10.40.150.150 镜像默认关
阅读全文
摘要:Nova部份 cpu_allocation_ratio = 4.0 物理 CPU 超售比例,默认是 16 倍,超线程也算作一个物理 CPU,需要根据具体负载和物理 CPU 能力进行综合判断后确定具体的配置。建议超售4倍,配置作用于controller有效 ram_allocation_ratio =
阅读全文
摘要:之所以要只有C盘分区镜像,是因为在创建VM或者调整云主机的硬盘大小时,它能自动扩容。无需人工介入 参考http://www.iyunv.com/thread-45149-1-1.html的灵感 在原来的物理机10.40.41.1的CentOS 6.7上制作镜像。 宿主机坱要安装KVM相关软件: yu
阅读全文
摘要:之所以要只有根分区镜像,是因为在创建VM或者调整云主机的硬盘大小时,它能自动扩容。无需人工介入 在原来的物理机10.40.41.1的CentOS 6.7上制作镜像。 宿主机坱要安装KVM相关软件: yum groupinstall Virtualization "Virtualization Cli
阅读全文
摘要:之所以要只有根分区镜像,是因为在创建VM或者调整云主机的硬盘大小时,它能自动扩容。无需人工介入 在原来的物理机10.40.41.1的CentOS 6.7上制作镜像。(当然如果你的制作镜像的宿主机是CentOS7也是一样的) 宿主机坱要安装KVM相关软件: yum groupinstall Virtu
阅读全文
摘要:这里以办公网测试环境为例, (一)创建租户demo的网络 使用admin用户 source admin-openrc.sh 创建public公网 neutron net-create 1040100 --shared --provider:physical_network public --prov
阅读全文
摘要:这一小节基本配置相同,但留意以下紫色部份的配置,当初为了管理方便,我们让办公网openstack的dashboard的登录桥接了科兴的dashboard,由此统一dashboard界面的登录地址 2台controller安装组件 # yum install openstack-dashboard -
阅读全文
摘要:2台kxcontroller安装组件 # yum install openstack-dashboard -y 修改一样的配置 vi /etc/openstack-dashboard/local_settings 查找以下内容进行修改 OPENSTACK_HOST="kxcontroller" AL
阅读全文
摘要:所有compute节点 下载安装组件 # yum install openstack-neutron openstack-neutron-linuxbridge ebtables ipset -y 修改新增内核参数: vi /etc/sysctl.conf net.ipv4.conf.default
阅读全文
摘要:所有kxcompute节点 下载安装组件 # yum install openstack-neutron openstack-neutron-linuxbridge ebtables ipset -y 修改新增内核参数: vi /etc/sysctl.conf net.ipv4.conf.defau
阅读全文
摘要:网络这一块推荐使用的是 Neutron--LinuxBirdge的Ha高可用,此高可用方案对Public作用不是很大,Public只用到DHCP,而Private则会用到L3 Agent,则此方案是有用的,但要关掉和牺牲一个L3 population的特性--抑制ARP报文广播。原因在下文的配置文件
阅读全文
摘要:网络这一块推荐使用的是 Neutron--LinuxBirdge的Ha高可用,此高可用方案对Public作用不是很大,Public只用到DHCP,而Private则会用到L3 Agent,则此方案是有用的,但要关掉和牺牲一个L3 population的特性--抑制ARP报文广播。原因在下文的配置文件
阅读全文
摘要:云主机迁移+扩展云主机大小 ,官方说它依赖nova用户之间的免密登录。确保每个resion区域的compute节点服务器他们可以相互SSH免密 compute1-7 他们相互SSH免密 kxcompute1-9 他们相互SSH免密 1、注意!是每台机器上的nova用户向另一台机器的nova用户的免密
阅读全文
摘要:这里我只使用compute1节点配置为示例,其它节点的配置基本是一样的,只是声明的管理IP不同而已 计算节点 # yum install openstack-nova-compute sysfsutils 修改配置文件 vi /etc/nova/nova.conf [DEFAULT] resume_
阅读全文
摘要:这里我只使用kxcompute1节点配置为示例,其它节点的配置基本是一样的,只是声明的管理IP不同而已 计算节点 # yum install openstack-nova-compute sysfsutils 修改配置文件 vi /etc/nova/nova.conf [DEFAULT] vcpu_
阅读全文
摘要:一、首先登录controller1创建nova数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE nova; GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY 'v
阅读全文
摘要:一、首先登录kxcontroller1创建kx_nova数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE kx_nova; GRANT ALL PRIVILEGES ON kx_nova.* TO 'nova'@'localhost' IDENT
阅读全文
摘要:采用Rysnc单向同步,而不用双方实时同步,原因是在历史的运行过程中,我们发现,有些镜像包太大,当在主用的glance将镜像保存时,并不是一时半会就把镜像保存好,当主用在保存时,备用节点又在实时同步那个正常拷贝保存状态中的不完整主用文件,因此我们会看到在备节点上,它删了又拷的方式,非常损耗机器的硬盘
阅读全文
摘要:首先登录controller1创建glance数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE glance; GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED
阅读全文
摘要:首先登录kxcontroller1创建kx_glance数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE kx_glance; GRANT ALL PRIVILEGES ON kx_glance.* TO 'glance'@'localhost'
阅读全文
摘要:其中一台controller上面加入环境变量,我选controller1,关注的是endpoint的名称不一样,其它创建的参数与生产环境一致 export OS_TOKEN=venicchina export OS_URL=http://controller:35357/v3 export OS_I
阅读全文
摘要:其中一台controller上面加入环境变量,我选kxcontroller1,关注的是endpoint的名称不一样,其它创建的参数与测试环境一致 export OS_TOKEN=venicchina export OS_URL=http://kxcontroller:35357/v3 export
阅读全文
摘要:首先登录controller1创建keystone数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE keystone; GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' ID
阅读全文
摘要:其实登录数据库集群中任意1台都可以创建库,它们会实时自动同步数据库和对应的数据库权限。 首先登录kxcontroller1创建kx_keystone数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE keystone; GRANT ALL PRIV
阅读全文
摘要:生产环境建议在集群三台controller上做rabbitmq 使用到队列的openstack组件 OpenStack Compute OpenStack Block Storage OpenStack Networking Telemetry 生产环境建议在集群三台controller上做rabb
阅读全文
摘要:kxcontroller1 kxcontroller2 controller1 这3台作角色 确保服务器的域名解析访问正常 确保NTP时间同步 配置HAproxy主备访问,其中的一项数据库3306端口项,参考Haproxy配置文档。 每台安装如下包 201511月的安装包如下 yum install
阅读全文
摘要:续上一节说明 一开始我也是使用haproxy来做的,但后来方式改了,是因为物理机controller的高配置有些浪费,我需要1组高可用的上层nginx代理服务器来实现其它域名80代理访问,很多办公网测试的域名解析58.251.17.238的IP,都是复用走这组controller的nginx 测试环
阅读全文
摘要:官方文档上的高可用配置,它推荐的是使用haproxy的上层代理来实现服务组件的主备访问、或者负载均衡访问 一开始我也是使用haproxy来做的,但后来方式改了 测试环境:haproxy + nginx 科兴环境:haproxy 先抛开测试环境,等下我再在4.2节中解说一下配置 两边的kxcontro
阅读全文
摘要:这里只用到keepalived 或者pacemaker两种方法,可二选一来配置,官方提供的是pacemaker,但我们实际测试环境和生产环境上使的是keepalive 首先在4台controller上安装包(kxcontroller1 \ kxcontroller2 \ controller1 \
阅读全文
摘要:服务器物理机都安装centos7.2 1511版本 , 此次采用的分区方式全是自动XFS格式LVM,在装系统时就将所有本地raid5硬盘都加入LVM全用了。默认/home目录有着最大的硬盘空间 并且我全程是使用root用户身份进行安装 1、配置办公网openstack的所有物理服务器的域名解析,添加
阅读全文
摘要:图1说明:办公网的openstack使用2台交换机,10.40.40.2是24口 10.40.40.6是48口,管理网段接10.40.40.2VLAN1002 虚拟机的public网段接10.40.40.6的VLAN1100 。因为10.40.40.6可以支持一个接口配置多个网段,而另一台交换机不支
阅读全文
摘要:该环境布署文档,因项目运营中止2年,IDC均早已撤回。使用openstack 版本虽老,但弃之可惜,故贴出分享,其中已经将各个组件密码进行了提前替换,仅供参考 管理控制层面示图: 其实在修改这个布署文档是,我发现当时生产中的布署已经严重偏离了openstack高可用的指导思想。我们自己实践的高可用其
阅读全文

浙公网安备 33010602011771号