OpenStack高可用集群(下冊):部署與運維》—11.2.2 OpenStack高可用部署生產(chǎn)環(huán)境架構(gòu)

      網(wǎng)友投稿 930 2025-04-02

      11.2.2 OpenStack高可用部署生產(chǎn)環(huán)境架構(gòu)

      《OpenStack高可用集群(下冊):部署與運維》—11.2.2 OpenStack高可用部署生產(chǎn)環(huán)境架構(gòu)

      對于開源軟件的使用,沒有任何固定的設(shè)計架構(gòu),尤其是像OpenStack這類“大帳篷”模式發(fā)展的開源社區(qū)軟件。在云計算不斷落地發(fā)展的現(xiàn)今,基于OpenStack的創(chuàng)業(yè)公司層出不窮,同時傳統(tǒng)IT巨頭也在借力OpenStack加速轉(zhuǎn)型成為云計算公司,并且很多具有較強IT技術(shù)實力的企業(yè)也在基于OpenStack自建私有云,因此應(yīng)用于生產(chǎn)環(huán)境中的OpenStack部署架構(gòu)可以說是“百花齊放,百家爭鳴”。在OpenStack高可用集群架構(gòu)設(shè)計中,不同廠商均提出了自己的高可用設(shè)計架構(gòu),這其中以開源領(lǐng)導(dǎo)廠商RedHat和Pure Play OpenStack廠商Mirantis的高可用方案最為主流,而國內(nèi)很多OpenStack創(chuàng)業(yè)公司初期的OpenStack高可用方案都源自RedHat OSP(OpenStack Platform)和Mirantis的Fuel系列OpenStack部署軟件的定制化和二次開發(fā),因此對于計劃自建OpenStack高可用集群的用戶而言,如果沒有更好的高可用設(shè)計架構(gòu),則RedHat和Mirantis的高可用方案確實是非常值得借鑒的。圖11-7所示為RedHat OSP系列的OpenStack高可用集群部署參考架構(gòu),關(guān)于RedHat OSP高可用架構(gòu)的具體描述可以參考第2章中的相關(guān)部分。

      從架構(gòu)的整體設(shè)計上來看,RedHat提供的高可用架構(gòu)充分考慮了企業(yè)級應(yīng)用服務(wù)的高可用性,因此架構(gòu)在設(shè)計和實現(xiàn)上都需要一定的技術(shù)實力和成本預(yù)算來支撐,對于有較多云計算人才和充分預(yù)算的企業(yè),RedHat方案將是不錯的選擇。圖11-8所示是Mirantis主導(dǎo)的OpenStack高可用架構(gòu)設(shè)計方案之一。Mirantis是一家完全基于OpenStack的初創(chuàng)公司,其設(shè)計理論和方案以簡單實用為主,在架構(gòu)設(shè)計上不會顯得冗余繁重,非常適合對云計算接觸并不深入的年輕團隊或者在成本預(yù)算上受到限制的部門或初創(chuàng)公司進行基于OpenStack的云計算建設(shè)參考。當然,除了Redhat和Mirantis的OpenStack高可用方案外,用戶也可以綜合各家所長實現(xiàn)自己的OpenStack高可用架構(gòu),只要整個架構(gòu)的最終設(shè)計能夠滿足前期提出的IaaS服務(wù)需求分析即可。

      圖11-7 RedHat OSP高可用集群部署參考架構(gòu)

      對于生產(chǎn)環(huán)境而言,硬件服務(wù)器節(jié)點的拓撲情況通常根據(jù)OpenStack各個服務(wù)組件部署模式的不同選擇而不同,由于OpenStack服務(wù)組件的部署具有極大的靈活性,因此在項目實施之初的設(shè)計階段需要謹慎,以保證OpenStack集群在功能正常使用的同時,還應(yīng)該具備高可靠性、高可用性和水平可擴展性。通常,為了保證生產(chǎn)環(huán)境的高可用,控制節(jié)點數(shù)目至少由3個物理服務(wù)器構(gòu)成,而計算節(jié)點則根據(jù)實際的規(guī)劃需求可以分為一期上線和后續(xù)二期擴容的形式來規(guī)劃采購。對集群拓撲影響較大的可能是后端存儲的采用,如果采用IBM、EMC、Netapp或華為等企業(yè)存儲陣列,則OpenStack集群后端存儲需要一個復(fù)雜的存儲SAN網(wǎng)絡(luò)支撐,圖11-9所示即是比較典型的基于企業(yè)級高可用存儲的OpenStack集群部署架構(gòu),OpenStack集群存儲云盤由Cinder項目提供,Cinder后端可以使用LVM驅(qū)動或直接使用由特定存儲廠商提供的存儲驅(qū)動來使用底層存儲。圖11-9中,后端底層存儲采用EMC VPLEX或IBM SVC存儲異構(gòu)虛擬化產(chǎn)品對底層不同存儲廠商的存儲陣列進行異構(gòu)虛擬化封裝,并統(tǒng)一由VPLEX或SVC作為Cinder的后端存儲設(shè)備,而在Cinder的后端存儲驅(qū)動矩陣中,用戶可以輕易找到EMC和IBM提供的VPLEX和SVC驅(qū)動程序。

      圖11-8 Mirantis OpenStack高可用部署架構(gòu)

      在企業(yè)生產(chǎn)環(huán)境中,采用類似圖11-9所示的OpenStack高可用集群有很多優(yōu)勢,首先冗余控制節(jié)點為OpenStack集群的控制層面提供了高可靠和可用性,同時將集群服務(wù)、負載均衡服務(wù)、消息隊列服務(wù)、數(shù)據(jù)庫服務(wù)和緩存服務(wù)等與計算無關(guān)的OpenStack基礎(chǔ)服務(wù)與計算節(jié)點獨立并集中到高可用控制節(jié)點統(tǒng)一部署管理。在以后的使用過程中,用戶對集群的擴容僅限于計算和存儲,而計算節(jié)點的擴容完全是Scale-out形式的,且獨立于控制節(jié)點和后端存儲陣列,計算節(jié)點擴容也僅需針對Nova-compute服務(wù)即可。此外,由于采用了傳統(tǒng)企業(yè)級存儲陣列,存儲空間的擴容也變得極為簡單,只需在線對存儲陣列進行磁盤擴容即可,并且無須改變?nèi)魏蜲penStack集群配置。用戶還可以利用VPLEX/SVC將數(shù)據(jù)同步到多個底層存儲陣列,從而為關(guān)鍵數(shù)據(jù)提供更高層次的保護。采用類似圖11-9所示的傳統(tǒng)企業(yè)級存儲架構(gòu)的OpenStack高可用集群的不足之處在于成本較高,復(fù)雜的后端底層存儲和SAN網(wǎng)絡(luò)需要專門的存儲管理員維護,并且多數(shù)存儲陣列的擴容仍然是Scale-up形式(也有類似IBM XIV的Scale-out陣列)。在大容量擴容之后,有限的存儲控制器處理能力和前后端帶寬必然限制高并發(fā)用戶對海量存儲的訪問,因此是否選用此類型的OpenStack高可用集群架構(gòu),需要用戶根據(jù)自己的成本和業(yè)務(wù)慎重考慮。

      圖11-9 基于Cinder塊存儲的企業(yè)級OpenStack高可用私有云架構(gòu)

      與圖11-9不同,圖11-10采用的是基于分布式開源存儲集群Ceph的OpenStack高可用架構(gòu)。Ceph作為一種統(tǒng)一分布式存儲集群,其在高可用、高可靠和故障自我愈合方面都有相當不錯的表現(xiàn),并且也是OpenStack中使用極為普遍的后端存儲之一,目前其提供的文件系統(tǒng)存儲CephFS、塊存儲RBD和對象存儲RGW均為穩(wěn)定版本。Ceph RBD不僅可以作為Cinder的塊存儲后端,還可以為Glance和Nova提供鏡像存儲和虛擬機臨時磁盤空間。Ceph存儲集群主要由Ceph監(jiān)控節(jié)點和Ceph OSD節(jié)點組成,其中監(jiān)控節(jié)點負責(zé)整個集群的健康檢查并保存集群運行狀態(tài)和提供集群數(shù)據(jù)恢復(fù)的依據(jù);而OSD節(jié)點負責(zé)用戶數(shù)據(jù)的存儲。Ceph監(jiān)控節(jié)點對整個Ceph集群的正常運行至關(guān)重要,可采用仲裁機制來保證監(jiān)控節(jié)點的高可用,因此生產(chǎn)環(huán)境下建議監(jiān)控節(jié)點數(shù)目最少為3個。圖11-10中所示Ceph監(jiān)控節(jié)點被放置到OpenStack控制節(jié)點上,當然用戶可以使用獨立的Ceph監(jiān)控節(jié)點,或者將其部署到OSD節(jié)點上(為了實現(xiàn)控制與數(shù)據(jù)的分離,不建議OSD節(jié)點同時作為監(jiān)控節(jié)點)。與傳統(tǒng)企業(yè)級Scale-up擴容的存儲陣列不同,Ceph OSD節(jié)點可以按需在線以Scale-out的形式擴容。從理論上講,Ceph OSD節(jié)點越多,Ceph集群的可用性、可靠性和存儲性能就越強大,因此Ceph存儲集群并不存在理論上的容量極限,用戶只需根據(jù)容量需求不斷增加OSD節(jié)點用以存儲數(shù)據(jù),而不用擔(dān)心Ceph客戶端會受到影響。

      圖11-10 基于Ceph存儲集群的企業(yè)級OpenStack高可用私有云架構(gòu)

      在生產(chǎn)環(huán)境中,采用基于Ceph存儲集群的OpenStack高可用集群架構(gòu)具有很多優(yōu)勢:首先,Ceph是一種開源分布式的存儲集群軟件,采用Ceph作為OpenStack集群的后端存儲,在成本上相對傳統(tǒng)企業(yè)級動輒上百萬的存儲陣列要實惠很多;其次,Ceph天生具備大規(guī)模集群高并發(fā)訪問的優(yōu)勢,其節(jié)點越多優(yōu)勢越明顯,非常適合大規(guī)模和海量數(shù)據(jù)存儲的業(yè)務(wù)場景;Ceph存儲集群完全采用Scale-out的形式擴容,避免了用戶在存儲擴容時性能瓶頸的顧慮;此外,Ceph提供的文件系統(tǒng)存儲、塊存儲和對象存儲可以同時滿足用戶不同的數(shù)據(jù)存儲需求;其強壯的穩(wěn)定性和數(shù)據(jù)自我恢復(fù)能力也是Ceph存儲集群特有優(yōu)勢。不過,相對傳統(tǒng)企業(yè)級存儲陣列和SAN存儲網(wǎng)絡(luò),Ceph依然很年輕,而且在Ceph較長一段時間的發(fā)展過程中,雖然其理論依據(jù)已經(jīng)非常成熟,但是其科研院校的出身背景使得其在企業(yè)關(guān)鍵業(yè)務(wù)系統(tǒng)數(shù)據(jù)存儲領(lǐng)域的使用卻很少。正是OpenStack的出現(xiàn)帶來了Ceph在企業(yè)應(yīng)用中的普及,因此企業(yè)在使用Ceph存儲集群為OpenStack提供后端存儲時,需要投入相當多的人力對Ceph進行持續(xù)的研究跟進,方能解決突發(fā)的Ceph存儲集群故障問題。

      OpenStack 云計算

      版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。

      版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。

      上一篇:pdf轉(zhuǎn)word字體不一樣怎么辦(word轉(zhuǎn)pdf格式不一樣)
      下一篇:Excel中表格一列數(shù)據(jù)分割成多列的操作方法(excel一列數(shù)據(jù)拆分成多列)
      相關(guān)文章
      久久夜色精品国产噜噜亚洲a| 久久久亚洲AV波多野结衣| 亚洲欧洲日产韩国在线| 久久亚洲AV无码精品色午夜麻豆| 亚洲午夜国产精品无码老牛影视| 国产精品久久久久久亚洲影视| 亚洲中文字幕AV每天更新| 亚洲AV综合色区无码二区偷拍 | 亚洲国产综合精品中文字幕| 亚洲AV无码一区二区三区久久精品| 亚洲国产视频久久| 亚洲男人天堂2022| 亚洲中文字幕无码中文| 亚洲中文字幕无码中文字| 亚洲欧美国产精品专区久久| 亚洲欧美中文日韩视频| 亚洲av成人一区二区三区观看在线 | 亚洲欧洲无码AV不卡在线| 亚洲中文字幕无码爆乳app| 亚洲最大的成人网| 一本色道久久88亚洲精品综合| 亚洲码和欧洲码一码二码三码| 欧美激情综合亚洲一二区| 亚洲v国产v天堂a无码久久| 九月婷婷亚洲综合在线| 亚洲一区二区三区高清不卡| 亚洲粉嫩美白在线| 亚洲第一成年免费网站| 五月天婷亚洲天综合网精品偷| 久久亚洲2019中文字幕| 亚洲人成网站在线观看播放| 久久精品亚洲日本佐佐木明希| 久久亚洲精品国产精品| 亚洲另类视频在线观看| 最新国产精品亚洲| 国产亚洲午夜精品| 亚洲中文字幕久久精品无码APP| 亚洲AV无码成人网站久久精品大| 综合自拍亚洲综合图不卡区| 久久精品国产亚洲av麻豆蜜芽| 亚洲国产成人久久精品大牛影视|