IT商业网-解读信息时代的商业变革
当前位置: 首页 > 物联网 > 正文

OpenStack大规模产品化一小步,企业上云一大步

2019-09-25 11:12:21     

  如今,经过了9年的发展,OpenStack已经成为了私有云事实上的标准。在开源云计算领域,OpenStack作为IaaS层的开源技术标准,已经广泛覆盖服务器、网络、虚拟化、操作系统等各个方面。同时,OpenStack市场规模不断扩大,截止2019年5月, OpenStack为超过75个公共云数据中心和数千个私有云提供支持,其规模超过1000万个计算核心,在电信、金融、政府等行业得到广泛应用。

  2018年8月,OpenStack第18个版本Rocky发布。2019年9月,浪潮宣布完成已知的OpenStack Rocky版本全球最大规模单一集群测试,本次测试基于500节点规模,突破2000台虚拟机高并发,实现20000台虚拟机高密管理,10万级监控项秒级监控,整机柜分钟级高可用迁移,云平台部署交付效率达到单日500节点以上。

  Rocky版本强调了对企业数据中心基础设施新需求的支持,以及对裸机和版本升级的支持和改进,加上已有对容器的支持,Rocky版本可以说是双模IT和企业数字化转型的理想数据中心基础设施软件之选。而浪潮对Rocky版本的500节点单一集群测试,意味着可复制的OpenStack Rocky商用部署规模进一步扩大,为企业大规模上云扫除了障碍。

  产品化:从“小云”到“大云”

  早在2015年的时候,Forrester就发布过一份调研报告,认为当时的OpenStack已经初具商用的能力,当时的Nova计算项目、Swift对象存储项目、Keystone身份管理项目、Cinder块存储项目、Neutron网络项目等已经在财富500强中进入生产环境。虽然在当时供应50个虚机需要耗费12个小时,但仍有其他方式补救。

  到了目前,OpenStack的子项目已经基本成熟了,涉及计算、硬件生命周期、存储、网络、共享服务、编排、负载供应、应用生命周期、API代理以及面向Web的面板等。计算项目中除了Nova还有容器项目ZUN、无服务器项目QINLING,硬件生命周期项目中有祼机供应项目Ironic、GPU和FPGA等加速硬件管理项目Cyborg等。作为开放基础设施,OpenStack已经具备了足够的能力。

(浪潮集团副总裁张东介绍大规模实践情况)

  在OpenStack的部署规模方面,不少OpenStack超级用户都已经达到上千节点的部署规模。浪潮集团副总裁张东就本次Rocky版集群测试表示,OpenStack正从产品化走向规模化,这次测试是真正意义上走向大规模商用过程中的实践。之前,浪潮已经为包括广电、金融在内的客户搭建上千节点的部署,而本次浪潮对Rocky版本的集群测试,其意义在于产品化部署的规模,也就是可复制的商用产品。

  浪潮云计算与大数据产品部副总经理刘晓欣则把本次测试的意义比喻为:从“小云”到“大云”。也就是过去可以产品化部署的OpenStack单一集群规模在200-300节点,因为集群规模扩大之后,管理性、部署性、功能性等等都会面临挑战。而200-300部署节点的单一集群可以说是“小云”或形象理解为“小机”,500部署节点的单一集群相应可以理解为“大云”或“大机”。随着单一集群的规模扩大,私有云的规模效益越高、边际成本越低。

  据了解,更大规模的单一集群有利于实现超配和提升集群管理能力。所谓超配,简单理解就是体现出计算资源的复用能力,即让更多的工作负载共享计算资源,从而体现出云计算的本质优势。对于小规模的单一集群,往往只能承载单一应用,无法体现云计算的好处;而只有大规模的单一集群,才能容纳更多的应用,不同应用之间才能共享计算资源。例如当集群规模足够大,如果应用的实际内存利用率在70%,那么超配比就可以设置为1/0.7即1.4,相当于少买了40%的内存。而且当大企业进入到云化业务阶段,有很多需要互联互通互操作的大规模应用,这就需要以大集群为单位进行横向扩展。

  而从集群管理能力来说,大规模单一集群也更节约管理成本和资源。本次浪潮测试的单一集群管理节点在20个左右,但随着集群规模的扩大,管理节点数却是保持不变。也就是OpenStack单一集群规模可以从500个扩展到1000个甚至1500个,但管理节点数却不变,极大节约了集群的管理成本以及人力资源。

  参与本次测试的中国信通院云大所云计算部副主任陈屹力表示,双方经历近一个月的时间,完成了本次测试,其间的难度相当大。信通院认为,本次测试体现出浪潮的快速交付能力,以及在产品优化方面做的大量的工作——最初是按照500个节点规模设计的,实际上调度了将近1000个节点,“这是一个了不起的尝试”。

  企业上云进入升级阶段

(信通院云大所云计算部副主任陈屹力发言)

  为什么选在当前这个时间进行500节点单一集群测试?陈屹力介绍说,早在两年前就已经有智慧城市的用户找到信通院,要求类似规模的验证,但当时受限于物理条件——用户不可能拿出500台服务器做测试,而当时在公有云上搭建上百个节点——100个节点的交付需要两周约40万元的成本,不仅交付时间长而且成本相当高,因此也就没有推进。

  这两年随着“互联网+”、“智能+”的发展,智慧城市、互联网金融、高性能计算等都需要大规模的OpenStack集群,而企业级客户不可能像电信运营商或大型互联网公司那样具备一个庞大的运维团队,因此广大的企业都需要可快速复制的产品化OpenStack集群。我们了解到,传统部署是以周或月计,本次500点的参考基准是三天,其中还包括从南方调过来100个节点的物流时间以及安装操作系统的时间。其中有很多难点是开源社区没有解决的,浪潮本次采用并行化分布式操作系统安装技术,也是对于开源技术的贡献。

  刘晓欣强调,浪潮云海InCloud OpenStack是基于容器化部署,交付相比传统模式来说效率更高,特别体现在升级和回滚等动作方面,在大规模集群里的性能表现更加明显。在测试交付500个节点过程中,一直在跟踪不同时间点的成果,例如扩容100个节点耗时一个小时等。陈屹力补充,本次测试是参照严格的生产环境,在节点扩展的时候,如果创建资源的时间过长则对业务来说就不可用。如何在10分钟甚至更短时间内创建2000个虚机,也是很大的挑战。

  本次测试的侧重点在于高可用、高效率、高性能,也就是对企业级产品的要求,这是本次测试与之前业界已进行其他测试的不同之处。张东表示,本次测试的高压力环境是之前没有达到过的,2000个并发的高性能测试也是之前没有见过的,高可用测试更是真实地把一机柜机器全部掉电。

  本次测试实现了10小时完成500台服务器节点系统部署;5小时部署323个OpenStack节点;3个小时部署77个分布式存储节点;1小时完成100个计算节点扩容改配。此外,测试结果显示,在高密度、高并发环境测试中,在系统已有20000虚拟机负载情况下,成功完成2000并发虚拟机创建;当负载60%环境下完成1000并发虚拟机创建。同时,本次测试验证了大规模集群在极端情况下的高可用,模拟了整机柜断电这种现实场景中较为严重的情况,在单个机柜负载180虚拟机环境下,实现了5分钟内疏散完毕,访问恢复正常。在高性能方面,本次测试结合客户实际应用场景中反馈的对网络低延迟、低抖动的要求,专门做了全栈的优化,能够满足对实时通信有苛刻要求的用户需求。

  中国信通院全程见证了本次测试,陈屹力认为本次测试代表了浪潮能够驾驭开源软件在商用上的实践,验证了国内技术厂商在500节点或1000节点下的OpenStack技术成熟度和驾驭能力。而这种大规模商用产品化的技术能力,也正迎合了当前企业加速上云的态势——近几年,工信部推出了企业上云政策,各地都在推智慧城市、城市大脑、工业互联网等新应用,这些都极大拉动了企业上云的速度和规模。

  如今,浪潮云海InCloud OpenStack已经升级到5.6版,即基于Rocky的版本。随着本次测试的完成,ICOS 5.6版本在稳定性、功能和性能等方面都迈上了一个新的台阶,产品化能力达到了新高。此前,浪潮已经有了广电行业客户两地三中心总规模1500+节点的部署经验,承载了BOSS系统、数字转码、数字媒体、云存储、CDN等多种业务;在金融行业,浪潮成功实施了国内最大金融生产云,某银行通过InCloud OpenStack搭建了1000+节点的云平台环境,承载手机银行、智能ATM、分行前置系统等业务系统环境,日交易峰值超过6千多万笔,交易峰值同比增长42%。

  当然,除了大型客户外,浪潮云海也在中小企业市场斩获颇丰。刘晓欣介绍,2019年上半年已经通过超融合一体机等形式,满足了中小型用户快速上云和快速业务资源池化的需求,浪潮云海超融合业务实现了翻番,客户基数增长也很快。

  展望2020年,中国和全球数字经济浪潮将推向新高,更多的企业将走向上云的阶段,已经上云的企业将进一步扩大上云的规模,而OpenStack Rocky版的双模IT能力以及浪潮已经验证的大规模单一集群能力,将为中国企业上云带来新速度,这就是OpenStack的中国速度!

免责声明: IT商业新闻网遵守行业规则,本站所转载的稿件都标注作者和来源。 IT商业新闻网原创文章,请转载时务必注明文章作者和来源“IT商业新闻网”, 不尊重本站原创的行为将受到IT商业新闻网的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:post@itxinwen.com
微信公众号:您想你获取IT商业新闻网最新原创内容, 请在微信公众号中搜索“IT商业网”或者搜索微信号:itxinwen,或用扫描左侧微信二维码。 即可添加关注。
标签:

品牌、内容合作请点这里: 寻求合作 ››

相关阅读RELEVANT