品高云计算解决方案设计V60文档格式.docx
- 文档编号:7792110
- 上传时间:2023-05-09
- 格式:DOCX
- 页数:42
- 大小:3.22MB
品高云计算解决方案设计V60文档格式.docx
《品高云计算解决方案设计V60文档格式.docx》由会员分享,可在线阅读,更多相关《品高云计算解决方案设计V60文档格式.docx(42页珍藏版)》请在冰点文库上搜索。
资源池中的资源通过云控制器、集群控制器和节点控制自上向下的三层架构进展调度。
而针对资源池中具体资源如此通过计算、存储和网络三个子系统进展管理和控制。
1.2.1三层调度架构
品高云操作系统对资源的管理是三层架构,自上而下分别是:
云控制器〔CloudController〕、集群控制器〔ClusterController〕、节点控制器〔NodeController〕组成。
其中云控制器可以管理多个集群控制器、一个集群控制器可以管理多个节点控制器。
如如下图所示:
〔资源池系统的三层调度架构示意图〕
1.2.1.1云控制器〔CLC〕
云控制器负责接收用户请求,并校验请求的合法性。
根据请求类型的不同,云控制器自动处理请求,或者将请求按策略调度到适宜的集群控制器处理,最后将处理结果返回给用户。
云控制器需要一台物理服务器部署,但可以与集群控制器共用一台物理服务器。
云控制器可管理的集群控制器数量没有限制。
1.2.1.2集群控制器〔CC〕
集群控制器是对云根底计算节点进展资源分群的手段,根据业务需求可以配置成不同业务集群。
集群控制器接收到云控制器的请求后,按策略将其调度给适宜的节点控制器处理,并由节点控制器通过计算子系统完成计算资源的创建和管理;
通过调用网络子系统搭建集群的受控网络环境,包括虚拟子网,网络路由,防火墙策略等;
通过对存储子系统的调用,为集群提供数据存储能力。
集群控制器需要一台物理服务器部署,但可以与云控制器共用一台物理服务器,多个集群控制器不建议放入一台物理服务器中。
一个集群控制器最多可以管理1024个节点控制器。
1.2.1.3节点控制器〔NC〕
节点控制器负责处理从集群控制器发出的请求,并控制、管理和监控运行在其上的虚拟服务器的计算环境和存储环境。
节点控制器对虚拟服务器的监控是一种非入侵式的监控,它不需要对目标虚拟服务器植入监控程序。
另外,有时节点控制器除了承当计算任务之外,其本地硬盘也会通过BingoFS被构建成分布式存储系统。
一个节点控制器需要部署在一台物理服务器中,不建议与云控制器、集群控制器共用一台物理服务器。
1.2.2三大资源子系统
为实现对数据中心内的各类硬件资源的灵活使用,在三层调度架构体系下,分别使用计算计算、存储与网络等三个子系统对硬件/虚拟资源进展具体的管理和控制。
〔三大资源系统与三层调度架构关系示意图〕
1.2.2.1计算子系统
计算子系统通过对x86物理设备的虚拟封装,实现灵活的服务器资源控制,支持市面常见的服务器虚拟化技术供用户选择,包括:
KVM、XEN、ESXi。
如果服务器不支持虚拟化技术或低损耗计算要求等原因,品高云操作系统还允许用户选择使用Linux下几乎无损性能的轻虚拟化技术〔容器技术〕。
1.2.2.1.1多种虚拟化技术支持
品高云操作系统支持多种虚拟化Hypervisor技术,对于不同的虚拟化Hypervisor,平台提供了统一的bingo-hypervisor接口对虚拟机进展操作。
其中使用libvirt实现KVM、Xen虚拟化;
使用VMwareESXiAPI接口支持VMware的虚拟化。
Ø
KVM
是开源社区于2007年推出的,完全内置于Linux内核的开源hypervisor。
KVM目前支持IntelVT与AMD-V的原生虚拟技术。
时至今日IBM、红帽、英特尔等重量级厂商组成开放虚拟化联盟〔OVA〕,致力于提升KVM的认知度与采用率。
由于软硬件厂商的共同推进,KVM经常被拥有较大服务器规模的IDC使用,用于自身的品高云操作系统建设,规模经常达到百台以上。
XEN
2002年XEN正式被开源,由剑桥大学开发。
在先后推出了1.0和2.0版本之后,开始被诸如Redhat、Novell和Sun的Linux发行版集成,作为其中的虚拟化解决方案。
而XEN最成功的案例来自于美国亚马逊公有云,其推出的EC2服务采用开源XEN作为虚拟机的hypervisor,并拥有数十万级别的服务器规模。
ESXi
ESXi是VMWARE公司在2001年推出的针对服务器的虚拟化平台产品,是著名的虚拟化产品,其推出的vsphere、vcloud套件在企业客户中广为使用。
品高云操作系统主要针对封装调度对象是VMWARE底层的虚拟化技术ESXi,并可对接上层vcenter管理平台。
1.2.2.1.2Linux容器技术支持〔LXC〕
LinuxContainer容器是一种内核虚拟化技术,可以提供轻量级的虚拟化,以便隔离进程和资源,而且不需要提供指令解释机制以与全虚拟化的其他复杂性。
容器有效地将由单个操作系统管理的资源划分到孤立的组中,以更好地在孤立的组之间平衡有冲突的资源使用需求。
与传统虚拟化技术相比,它的优势在于:
与宿主机使用同一个内核,性能损耗小;
不需要指令级模拟;
不需要即时〔Just-in-time〕编译;
容器可以在CPU核心的本地运行指令,不需要任何专门的解释机制;
防止了准虚拟化和系统调用替换中的复杂性;
轻量级隔离,在隔离的同时还提供共享机制,以实现容器与宿主机的资源共享。
当服务器不支持虚拟化,或者对性能有更高要求时,考虑使用Linux容器技术。
但它只支持常见的Linux服务器。
〔容器技术与常见虚拟化技术架构比拟〕
1.2.2.1.3灵活的调度策略
如何在众多物理服务器中选出最符合业务需要的来创建虚拟机,一直以来是衡量品高云操作系统调度能力的重点能力。
所谓业务需要就是在实际场景中品高云操作系统中运行的应用系统特性,如生产环境、测试环境、网络I/O密集型环境等等。
计算子系统如此原生提供了8个自动化的“资源调度策略〞供管理员选择。
“资源调度策略〞可以分别针对不同的集群控制器管理的集群、同时也允许进一步针对不同的计算节点设置个性化策略。
品高云操作系统原生提供的全局资源调度策略包括:
●轮循〔roundrobin〕:
平均、轮流地使用集群下的节点资源〔默认使用的规如此〕。
●贪婪〔resource-max-first〕:
自动使用所有服务器中资源占用最低的创建计算资源〔一般用于生产环境〕。
●节约〔resource-min-first〕:
优先使用资源利用率高的节点资源,待其耗尽后再使用其他节点资源〔一般用于测试环境〕。
●利旧〔old-first〕:
优先使用先参加集群的节点资源〔一般用于测试环境〕。
●利新〔new-first〕:
优先使用后参加集群的节点资源〔一般用于生产环境〕。
●能耗大优先〔power-max-first〕:
优先使用能耗大的节点资源〔此策略需要主板支持IntelNodeManager技术;
主要用于渲染集群〕。
●能耗小优先〔power-min-first〕:
优先使用能耗小的节点资源〔此策略需要主板支持IntelNodeManager技术;
●网络空闲优先〔net-io-low-first〕:
优先使用网络流量小的节点资源〔主要用于网络密集型应用的集群〕。
针对集群内的虚拟机关机的资源使用情况,品高云操作系统还提供“紧缩模式〞的设置,在设置了紧缩模式后,虚拟机关机后将自动释放占用的CPU、内存资源,节省品高云操作系统资源。
但带来的副作用是如果其他虚拟机启动后将物理机资源沾满,如此关闭的虚拟机可能无法开机,直到有资源被释放出来。
〔默认不启用〕
另外一个设置是针对节电功能,当启用了“节电模式〞后,只要物理机中不在运行虚拟机,或其中的虚拟机全部处于关闭状态,如此物理服务器自动进入休眠状态,直到虚拟机被开机或有调度任务需要在其中创建新虚拟机时会被自动唤醒。
针对单一的云节点,品高云操作系统还提供了高级个性化配置,可以通过“表达式〞语法来设置个性云节点的特殊设置,可设置的参数包括:
●ImageType〔镜像类型,取值为 vm|vmware|container〕
●Platform〔平台,取值为 windows|linux〕
●Architecture〔架构,取值为x86_64|i386〕
●Vmtype〔规模,取值是品高云操作系统中设定的实例规模名称----虚拟机的虚拟硬件配置模板〕
●UserId〔用户,品高云操作系统平台中的用户账号名〕
●ImageId〔镜像,品高云操作系统中虚拟机模板的编号〕
示例语法:
ImageId=="
ami-11111111"
orelseImageId=="
ami-22222222"
〔指定节点只能运行某些镜像〕;
UserId=/="
bingo"
〔指定节点不允许某用户再使用〕
1.2.2.2存储子系统
存储子系统通过对分布式存储系统、SAN设备、服务器本地硬盘的逻辑化封装,实现灵活的数据存储能力。
1.2.2.2.1分布式云存储提供
品高云操作系统内置提供BingoFS分布式存储系统,它通过将x86服务器的本地硬盘集合起来协同工作,并通过通用数据接口〔如posix、CIFS、S3等〕,向用户提供海量数据存储、管理和访问服务。
既可以用于承载虚拟机的运行文件、虚拟磁盘、模板以与相关备份等工作,也可以直接为运行在物理机中的软件系统提供网络存储服务。
BingoFS系统包括元数据服务器〔支持主备〕以与假如干台分布式存储节点构成,元数据服务器用于数据索引,用户向BingoFS发起的数据请求由元数据负责指向实际的存储位置,为防止单点瓶颈元数据服务器除了支持主备模式之外,索引数据也一般保存在内存中可以快速响应客户的数据读写需求;
存储节点服务器用于保存实际数据,理论上存储节点越多整体容量越大,且读写带宽越大,再加之切片冗余的架构数据的可靠性也会更高。
〔分布式存储系统示意图〕
切片冗余架构、数据高可用
当用户数据需要写入分布式存储中时,会采取切片技术将大文件切分成假如干份,每份数据块为64MB,如果文件低于64M如此按实际大小保存,这些数据块会被分别保存在不同的存储节点中。
为保障数据的可靠性,每份数据又会被自动克隆1至10份〔允许用户设置数据的冗余份数〕,克隆的数据会在其他可用的存储节点保存。
对于拷贝数〔数据块的克隆数量+1〕为N的文件,即使N-1台存储节点失效时,仍可访问。
如有5台存储节点,拷贝数为3,如此理论上失效2台存储节点〔剩下3台〕,数据仍然可被存取。
〔分布式存储写入数据示意图〕
当用户需要读取分布式存储中的数据时,会依次从存有数据块的节点中读取数据。
当有多个用户并发读取数据时〔需要更大的数据读取带宽〕,如此数据文件越大越可能获得更好的并发读取性能,因为在不同的存储节点中都有可能存在大文件的一份数据块。
〔分布式存储读取数据示意图〕
热添加节点、自动水位平衡
BingoFS构建的分布式存储系统允许在运行中增加新的存储节点,从而提升整体的带宽与数据容量。
每当新存储节点被参加或现有集群中的存储节点宕机,BingoFS会通过优化算法,自动将当前存储集群中的数据重新分配存储位置,让各个存储节点的硬盘得到平均化利用的同时,更降低了单台服务器数据过多带来的数据丢失风险。
〔分布式存储高可用与水位平衡示意图〕
本地优先策略、SSD+10gE加速
对于在分布式文件系统中多冗复制的一个文件,每次写入操作都会有多份数据在网络中传输,每次读操作也需要经过网络从存储节点读取,给存储网络带来较大的带宽压力;
同时,由于数据读写都要经过网络,必然导致了IO的响应时间较长延迟较高。
而虚拟机镜像正是需要频繁读写的文件,传统分布式存储架构会需要比拟高的带宽,而传统架构带来的IO响应时间延长也降低了虚拟机的IO性能。
为了取得更好的虚拟机运行性能,BingoFS允许采用计算、存储双融合的架构。
既存储节点的CPU、内存可以作为运行VM的计算能力,而本地硬盘作为分布式存储的组成局部。
虚拟机的磁盘文件会优先在本地有一份完整数据拷贝,而冗余的数据会放入其余的存储节点中,读取数据时直接从本地读取,在这种架构下大大降低了网络带宽需求,降低了IO延迟。
为了进一步提高系统的离散IO性能,BingoFS支持采用SSD作为热点数据缓存的技术,借助固态硬盘的高IOPS特性为机械硬盘的离散IO操作加速,离散小IO与热点区域的读写优先在固态硬盘上进展。
另一方面本地优先策略执行后会采用同步方式将数据块的克隆放入其他存储节点,为加快提高效率一般建议采用10gE网卡或多千兆网卡会聚的方式提升网络速度。
〔计算、存储融合架构示意图〕
存储快照技术
备份是对数据进展保护的最有效方式。
然而通过数据复制进展备份的方式代价和本钱较高,消耗大量时间和系统资源。
显然,这种数据备份方式存在一个显著的不足,即备份窗口问题。
在数据备份期间,企业业务需要暂时停止对外提供服务。
随着企业数据量和数据增长速度的加快,这个窗口可能会要求越来越长,这对于关键性业务系统来说是无法承受的。
对于品高云操作系统来说,虚拟机镜像文件写入频繁,在运行时进展复制不能保证数据一致性会导致数据丢失,想要复制镜像只能将虚拟机关机,对业务的连续性造成较大影响,并产生了较大的系统负载。
因此对于支撑虚拟机镜像的存储系统来说快照特性是十分重要的。
快照是某个数据集在某一特定时刻的镜像,也称为即时拷贝,它是这个数据集的一个完整可用的副本。
快照的生成速度通常很短,只需要毫秒甚至微秒级的速度,瞬间完成,源文件正在读写时也可以进展快照,十分适合虚拟机镜像文件和存储卷文件的备份。
BingoFS在底层原生支持快照技术,并结合了写时复制〔COW,CopyOnWrite〕、指针重映射〔PointerRemapping〕、克隆快照〔Copyonwritewithbackgroundcopy〕等快照技术的优点,可在任意时刻对任意文件制作任意数量的即时拷贝,源与目标互为即时拷贝,没有源文件与快照文件之分,所有文件都具有一份完整拷贝,并具有一样的读写性能。
借助即时拷贝的优越特性,品高云操作系统可在数秒内批量启动上千台虚拟机,可在任意时刻对虚拟机镜像和存储卷制作任意数量的备份,而每个备份又可以随时瞬间恢复为虚拟机/存储卷,即使原始源文件已经被删除。
此外,即时拷贝也可作为BingoFS中数据复制的一种方式,任意大小的文件都可迅速复制完成,并且副本只占用极少的磁盘空间。
〔写时复制技术示意图〕
1.2.2.2.2各类SAN设备支持
品高云操作系统支持常见的SAN存储设备,支持添加多个SAN存储设备到存储池中。
品高云操作系统通过标准协议对SAN设备的LUN进展操作与格式化,并在LUN中运行实例或创建存储卷。
SAN设备上运行的实例通常可以获得较好的性能。
〔在品高云操作系统中添加SAN存储设备〕
1.2.2.3网络子系统
网络子系统通过对品高云操作系统中的虚拟网络进展编程控制(SDN能力),可以提供安全组、VPC、VPN等能力。
在不替换现有硬件交换设备的前提下,以中央控制方式对虚拟机网络资源进展管理。
1.2.2.3.1安全组
安全组起着虚拟防火墙的作用,可控制一个或多个实例的流量。
在启动实例时,需要为实例关联安全组。
为安全组添加规如此,规定流入或流出其关联实例的流量。
可以随时修改安全组的规如此;
新规如此会自动应用于与该安全组相关联的所有实例。
在决定是否允许流量到达实例时,平台会应用与实例相关联的安全组中的所有规如此。
〔安全组相当于虚拟防火墙,保护用户的虚拟机实例安全〕
安全组规如此可控制允许到达与安全组相关联的实例的入站流量以与允许离开实例的出站流量。
默认情况下,安全组允许所有出站流量。
品高云操作系统为要某某例启动时指定安全组,安全组默认不开通任何规如此。
当虚拟机实例要开通端口/协议时,除了虚拟机实例里面打开端口外,还要将实例对应的安全组添加相应的授权规如此。
以确保实例的安全。
1.2.2.3.2VPC提供
VirtualPrivateCloud〔VPC〕是云中与其他虚拟网络隔离的网络环境〔一般在品高云操作系统提供公有云模式下会被用到〕。
一般情况下云中的虚拟机实例IP是被品高云操作系统自动分配和管理的,但一般大型用户已有IT系统中的IP与网络划分相对成熟,因此希望沿用已有的路由和IP规如此,在这种情况下VPC允许网管人员在云中创建一个与客户现有网络更加一致的虚拟网络环境,并且支持通过VPN的方式拨号到VPC网络中,像使用本地网络一样使用云中的资源。
〔VPC服务让客户像使用本地网络一样使用云资源〕
VPC提供如下灵活的网络功能:
可以自定义网络、选择IP地址X围、创建子网。
可以配置路由表、网络网关和安全设置。
可以为实例添加/减少网卡,网卡可以是同一子网或不同子网。
可以在自己的VPC内启动云资源,例如虚拟机实例。
1.2.2.3.3VPN提供
品高云操作系统提供虚拟路由器功能,通过创建路由器,用户可以获得以下功能:
VPN功能
虚拟专用网〔VirtualPrivateNetwork,简称VPN〕,是一种常用于连接中、大型企业或团体与团体间的私人网络的通讯方法。
使用此功能使得你可以将品高公有云中的网络作为企业内网的一局部来看待使用,以更加便利的使用公有云中的资源。
公有IP端口映射
在指定的公有IP带宽足够的情况下,使用此功能,可以使用一个公有IP映射多个虚拟机实例,以节省公有IP的费用。
1.2.2.3.4VNC提供
VNC〔VirtualNetworkputing〕,为一种使用RFB协议的屏幕画面分享与远程操作软件。
此软件借由网络,可发送键盘与鼠标的动作与实时的屏幕画面,就像一台虚拟的显示器一样。
使用VNC可以做到查看到windows/Linux虚拟服务器的启动过程、远程控制虚拟服务器等。
VNC与操作系统无关,因此可跨平台使用,例如可用Windows连接到某Linux的电脑,反之亦同。
甚至在没有安装客户端程序的电脑中,只要有支持JAVA的浏览器,也可使用。
品高云操作系统为实例提供VNC连接,在没有公有IP的情况下也能访问实例。
1.2.2.3.5SDN网络
BingoSDN遵循的是ONF基金会〔opennetworkfoundation〕提出的SDN的标准,拥有完成的三层架构,实现严格的集中化控制。
〔BingoSDN架构图〕
数据层(dataplane)又称快速通道〔fastpath〕:
主要负责匹配OpenFlow规如此,执行数据的处理。
如无匹配数据,如此通过南向接口进展数据信息的反应〔slowpath〕;
控制层〔Controlplane〕:
分为四大局部,第一局部:
南向接口主要功能接收数据层信息的反应〔slowpath〕,下发决策〔OpenFlowrule〕;
第二局部:
北向接口提供开发的API给上层应用服务;
第三局部:
东西向接口这是控制层集群化的数据同步接口;
第四局部是内部服务,提供丰富的网络功能;
应用层(appplane):
负责云网络的核心业务,泛指我们的云管理平台提供的控制业务功能。
〔数据层networkdevice是基于主流开源软件openvswitch实现,在后文网络拓扑模型中openvswitchbr0即是openvswitch的桥,SDN的核心controller是自主研发,即控制层与应用层是自研的〕
SDN网络拓扑模型
BingoSDN支持管理员通过品高云操作系统规划云网络,下发规如此保存在自主研发的SDNcontroller中,当有流量进来时,主流开源软件openvswitch的桥通过北向接口询问controller,controller会对应用业务分析,下发流表规如此给到openvswitchbr0,然后由桥去匹配流表〔flowtable〕,执行动作,实现整个网络的控制转发。
同时,由于openflow的流表具有很强的灵活性的关系,每个NC可以独立访问外网。
〔BingoSDN网络拓扑模型〕
BingoSDNcontroller:
主要负责根据业务应用分析,对数据流进展决策,通过openflow协议下发流表规如此给到openvswitchbr0处理,以与对openvswitchbr0进展查询监控等功能,并且提供了北向的RESTAPI〔开放可调用接口〕。
支持集群模式的部署,可部署在集群控制器或节点控制器中,并且可以通过基于同步数据修复和同步负载均衡两种集群调度方法来调度控制节点接收相应的交换机,提高slowpath的处理性能、保证网络的高可用。
如帮助新交换机参加到网络中,能够找到最适宜的控制节点,另外当有控制节点宕机时,其接收的交换机能够被其它控制节点妥善接收。
Openvswitchbr0:
是linuxbridge的扩展实现,主要通过北向接口与controller进展交互,匹配流表,执行流表动作〔如转发,修改源/目标MAC地址、IP地址、端口号,丢弃等〕,以与QOS、failmode等网络功能。
流表〔Flowtable〕:
由2个局部组成,第一局部是规如此,定义了数据包的匹配项,其中包括:
源mac地址、目标mac地址、以太类型、源IP地址、目标IP地址、网络层协议号、传输层协议号、源端口号、目标端口号、vlan号、arpsendermac、arptargetmac等;
第二局部是动作,匹配命中后,op
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 高云 计算 解决方案 设计 V60