引言
在云計算的環(huán)境下,計算資源、網(wǎng)絡資源和存儲資源都可以作為業(yè)務發(fā)放給用戶,從而使得資源共享變得更加靈活和廣泛,減少了用戶的硬件購置,升級維護等成本終端用戶可以使用各種類型的瘦客戶端,在任何地方接入建立在云計算上的各類應用。理論上來說,相對于應用裝在用戶本地終端的傳統(tǒng)方法,云計算用戶應該獲得相同或甚至更好的用戶體驗。為了達到這樣的效果,對于支撐云計算的數(shù)據(jù)中心就有了更多新的要求。本文將逐一闡述這些數(shù)據(jù)中心的新特性,并探討為了滿足這些新特性而產(chǎn)生的核心技術及其演進預期。本文所述的數(shù)據(jù)中心都是指互聯(lián)網(wǎng)數(shù)據(jù)中心fIn—ternet Data Center,IDC)類型的數(shù)據(jù)中心。
1 云計算為數(shù)據(jù)中心帶來的新特性
在云計算場景下,IDC的運營商為各類企業(yè)提供各種服務,包括云計算的應用、網(wǎng)絡和存儲服務。
1.1服務器虛擬化和自由遷移
在傳統(tǒng)的非云計算場景下,物理服務器通常只被單一租戶的單一業(yè)務使用,所以單臺服務器的利用率會比較低。隨著業(yè)務的擴展,需要不斷增加服務器的數(shù)量,這樣會使得數(shù)據(jù)中心的規(guī)模越來越龐大。
在云計算的場景下,由于IDC為大量而不是單一的企業(yè)或用戶提供服務,所以業(yè)務量會極其龐大?坎煌5卦黾游锢矸⻊掌鲗τ诔杀竞途W(wǎng)絡規(guī)模來說都難以接受。虛擬化技術使得一臺物理服務器可以被虛擬成多臺服務器來使用,從而利用了原本閑置的資源,提高了服務器的使用率,所以使用相對較少的物理服務器就能滿足IDC的業(yè)務需要。通常對于多核CPU的服務器來說,可以虛擬成每個CPU一個虛擬機來使用。對于某些CPU資源消耗不太大的應用,例如VDI(虛擬桌面),甚至一個CPU可以虛擬成四個或更多的虛擬機。當然虛擬化還要受到硬盤的每秒I/O數(shù)和內(nèi)存的限制。
除了提高使用率外,虛擬化還使得服務器自由遷移變成可能。在傳統(tǒng)的數(shù)據(jù)中心,進行服務器的遷移是一項非常浩大的工程。必須事先進行規(guī)劃,需要謹慎計劃割接時間,做好備份。服務器需要進行斷線斷電,搬移,重新上電上線,通常業(yè)務會中斷,所以搬遷服務器是極少發(fā)生的。而使用了虛擬化技術以后,虛擬機的遷移不再涉及到物理上的搬遷。并且可以使用各種技術,例如漸進式內(nèi)存復制等方法使得遷移平滑進行,保證了遷移時用戶不感知,相關業(yè)務不中斷,不受影響。自由遷移為數(shù)據(jù)中心的容災備份,節(jié)能環(huán)保,網(wǎng)規(guī)網(wǎng)優(yōu)提供了不可替代的便利。虛擬機的自由遷移滿足了云計算環(huán)境下用戶隨時隨地進行數(shù)據(jù)接入的需求。
1.2支持多租戶
在非云計算的時代,通常各個租戶或者企業(yè)都需要自建數(shù)據(jù)中心或者租用運營商的硬件和基礎設施用于自己的服務計算和數(shù)據(jù)存儲。在這種情況下,可以理解為租戶自己擁有獨立的數(shù)據(jù)中心,可以自己進行運維也可以將運維托管給運營商。在使用了云計算以后,企業(yè)或者租戶可以向提供云計算的運營商租用計算資源,網(wǎng)絡資源,存儲資源,而不再是租用硬件和基礎設施,從而簡化或完全不需自建及自行運維數(shù)據(jù)中心。另外,云計算運營商的數(shù)據(jù)中心則會變得更加的復雜和龐大。其中的一個挑戰(zhàn)就是支持多租戶。
支持多租戶主要體現(xiàn)在:
(1)針對每個租戶業(yè)務的快速配置和部署。每個租戶在云計算運營商申購的資源需要能夠快速自動地在數(shù)據(jù)中心的網(wǎng)絡中使能,還包括防火墻、IPS/IDS , LoadBalancer等設備的相應配置,做到即插即用。
(2)租戶之間的流量隔離。實際上,由于租戶之間可能共享硬件設備、帶寬、存儲等資源,為了保證安全,在以二層網(wǎng)絡為主的數(shù)據(jù)中心,租戶之間的流量需要進行隔離,防止租戶甲的流量被租戶乙接收到。傳統(tǒng)的二層網(wǎng)絡基于VLAN(虛擬局域網(wǎng))進行流量隔離的方法受限于4096個的VLAN數(shù)量限制。
(3)網(wǎng)絡配置和與租戶應用相關的配置解藕。
1.3無阻塞網(wǎng)絡
支持云計算的數(shù)據(jù)中心吞吐量極大的增加。由于云計算數(shù)據(jù)中心內(nèi)部資源節(jié)點(服務器、存儲、數(shù)據(jù)庫等)之間的訪問需求和交互流量相比于傳統(tǒng)數(shù)據(jù)中心都將大大增加,所以云計算數(shù)據(jù)中心吞吐量會對組網(wǎng)技術提出了嚴峻挑戰(zhàn)。另外,云計算數(shù)據(jù)中心經(jīng)常采用分布式計算。分布式計算對數(shù)據(jù)中心的流量模型帶來了巨大的變化,流量模型從以縱向流量(南北向流量,用戶訪問服務器流量)為主轉變?yōu)橐詸M向流量(東西向流量,服務器之間的流量)為主。
傳統(tǒng)的數(shù)據(jù)中心的網(wǎng)絡架構多是基于樹形的,下行和上行的帶寬有收斂比。這樣就會造成擁塞。在云計算數(shù)據(jù)中心,需要構建無阻塞的網(wǎng)絡來滿足流量需求。基于胖樹結構的拓撲將被用于構建無阻塞的網(wǎng)絡。胖樹解決了樹結構根節(jié)點易成為通信瓶頸的問題。胖樹結構中,越接近根節(jié)點,鏈路的帶寬越大。對于理想的胖樹結構,上層鏈路帶寬應為下層鏈路帶寬之和。圖1顯示了胖樹的結構。
圖1 胖樹的結構示意圖
使用胖樹結構的數(shù)據(jù)中心網(wǎng)絡拓撲,要求每臺邊緣交換機和所有核心交換機都建立連接,同時,核心交換機和每臺邊緣交換機之間有且僅有一條鏈路連接。從邊緣交換機到核心交換機之間的流量均衡是降低網(wǎng)絡擁塞的關鍵。圖2顯示了基于胖樹結構的網(wǎng)絡物理拓撲圖。
圖2 基于胖樹的網(wǎng)絡物理拓撲
2 云計算數(shù)據(jù)中心的網(wǎng)絡新技術
為了滿足前面所述的新需求,一些新的適用于云計算數(shù)據(jù)中心的網(wǎng)絡技術也隨之出現(xiàn)。這些新技術分別著重解決一個或多個問題。作為云計算數(shù)據(jù)中心的整體解決方案,很多技術需要聯(lián)合使用。這些新技術有些還處于研究或者優(yōu)化的階段,隨著業(yè)界對于云計算數(shù)據(jù)中心理解的加深以及商業(yè)模式或應用的拓展,可以預見更多的技術或者優(yōu)化將會被提出及使用。
2.1虛擬感知
當越來越多的服務器可以支持虛擬化以后,接入層的概念不再僅針對物理端口,而是延伸到服務器內(nèi)部,為不同虛擬機之間的流量交換提供服務,將虛擬機同網(wǎng)絡端口關聯(lián)起來。虛擬機之間的數(shù)據(jù)交換通常由虛擬交換機來完成,但內(nèi)置在虛擬化平臺上的軟件虛擬交換機(VSwitch)無法被網(wǎng)絡設備感知,甚至也不由網(wǎng)絡管理員管理。所以這種使用網(wǎng)絡不感知的虛擬交換機的方法無法實現(xiàn)虛擬機之間通信的流量監(jiān)管、虛擬交換機端口策略等功能。為了解決上述問題,如圖3所示,IEEE 802,1Qbg Edge Virtual Bridging (EVB)定義了關于虛擬機網(wǎng)絡接入的技術標準。
圖3 EVB(邊緣虛擬橋接)架構圖
如圖3所示,支持一或多個虛擬機附著的端站稱為EVB,每個虛擬機有至少一個虛擬機接口VSI,每個虛擬機可以和其他虛擬機通信,或者通過邊界中繼ER和橋接LAN上的其他虛擬機通信。傳統(tǒng)的虛擬交換機在內(nèi)部對于同一個物理服務器的不同VM直接可以直接進行流量轉發(fā),這種方式被成為VEB (Virtual EdgeBridging,虛擬邊緣橋接)。除了VEB之外,一種新的方式VEPA(Virtual Ethernet Port Aggregator,虛擬以太端口匯聚)也被制訂。VEPA的核心思想是,將虛擬機產(chǎn)生的網(wǎng)絡流量全部交由與服務器相連的物理交換機進行處理,即使同一臺服務器的虛擬機間流量,也發(fā)往外部物理交換機進行轉發(fā)處理。
VEPA的目標是要將虛擬機之間的交換行為從服務器內(nèi)部移出到上聯(lián)交換機上,當兩個處于同一服務器內(nèi)的虛擬機要交換數(shù)據(jù)時,從虛擬機A出來的數(shù)據(jù)幀首先會經(jīng)過服務器網(wǎng)卡送往上聯(lián)交換機,上聯(lián)交換機通過查看幀頭中帶的MAC地址(虛擬機MAC地址)發(fā)現(xiàn)目的主機在同一臺物理服務器中,因此又將這個幀送回原服務器,完成尋址轉發(fā)。整個數(shù)據(jù)流經(jīng)歷了一次回環(huán)((hairpin),而這在傳統(tǒng)的交換設備上是不被允許的。
EVB標準還定義了“多通道技術(Multichannel)”,可以使得VEB和VEPA同時存在于一臺物理服務器,一個VEB或VEPA可以對應一個通道,這樣為數(shù)據(jù)識別和流量管理,以及網(wǎng)絡配置都提供了便利。
為了支持上述功能的實現(xiàn),相應的虛擬感知和發(fā)現(xiàn)協(xié)議也同時被定義。當一個虛擬機上線的時候,它需要通過VDP(虛擬機發(fā)現(xiàn)協(xié)議)來和相鄰的物理交換機進行通告和配置信息交換。這樣臨近的物理交換機上可以感知到虛擬機的上線,并對于網(wǎng)絡策略或參數(shù)進行下發(fā)和配置。
除了IEEE 802.1Qbg以外,還有其他的一些機制和協(xié)議也用于虛擬感知和發(fā)現(xiàn),例如IEEE802.1BR所描述的端口擴展技術?梢园烟摂M端口統(tǒng)一映射到控制橋上,進行更集中的管理、配置和維護。
2.2租戶Overlay網(wǎng)絡
為了使得云計算數(shù)據(jù)中心可以支持大量的租戶,租戶Overlay網(wǎng)絡的概念被提了出來。不同的租戶之間流量隔離,且租戶的數(shù)量遠遠大于傳統(tǒng)12比特VLANID能提供的40%的租戶數(shù)。在IP層之上提供一層overlay網(wǎng)絡,使用特殊格式的封裝即特殊的Overlay的報頭來區(qū)分不同的租戶。封裝格式可以是多種多樣的,例如VXLAN或者NVGRE的方式。無論Overlay的封裝格式是怎樣,它的核心思想都是映射加封裝。
如圖4所示,某租戶的VM1發(fā)送報文給同一租戶的VM2的時候,邊緣入口節(jié)點S1將來自于租戶源VM1的報文目的地址(即VM2的地址)映射為傳送報文的隧道的出口節(jié)點地址(即S2的地址)。人口節(jié)點S1將原始報文進行封裝通過隧道傳遞后,出口節(jié)點S2將封裝剝除,恢復出原始報文并傳遞給最終的目的VM2o這個流程里面主要涉及兩個問題,一是封裝格式,二是控制平面對于映射的管理。封裝格式前面已說過,可以是多種多樣。而控制平面的對于映射和隧道的管理,則需要有比較統(tǒng)一的方法。理論上來說,可以分為兩類,自發(fā)學習或通過控制信令。
自發(fā)學習的方法適用于比較小型的數(shù)據(jù)中心,類似于傳統(tǒng)的2層地址學習。節(jié)點對接收到的報文進行內(nèi)外層地址的對應關系學習,例如圖4中S2上學習到(VM1, S1)的地址映射關系。自發(fā)學習的方法比較簡單,但是通過控制信令的方式擴展性更好,更適用于大型的數(shù)據(jù)中心。隧道的端點需要通過控制信令來對注冊和解注冊相應的地址對應關系。VM在上線的時候它的地址和隧道的映射關系將被注冊,在遷移的時候注冊關系將被更新,在下線的時候注冊關系將被刪除。
租戶Overlay的方法可以使得網(wǎng)絡本身對于租戶內(nèi)部的地址管理透明,策略可以根據(jù)租戶來下發(fā)。租戶的流量隔離將會在邊緣節(jié)點基于租戶ID來實現(xiàn),突破了傳統(tǒng)的使用二層以太網(wǎng)VLAN來隔離的租戶數(shù)目限制。
圖4 租戶Overlay網(wǎng)絡
2.3大二層網(wǎng)絡協(xié)議
傳統(tǒng)的STP(生成樹協(xié)議)用于防止二層網(wǎng)絡的環(huán)路,但是在云計算數(shù)據(jù)中心中,STP有諸多的缺陷,主要包括:
(1)為了防止環(huán)路而對特定端口進行阻塞,導致鏈路利用率低;
(2)無法實現(xiàn)等價多路徑轉發(fā);
(3)網(wǎng)絡收斂速度慢。
在以胖樹結構為主的云計算數(shù)據(jù)中心(如圖2所示),基于多條等價路徑的轉發(fā)是均衡流量防止擁塞的基礎。另外,由于虛擬機遷移的需求,一般要求虛擬機在遷移后的IP地址不發(fā)生改變,也就是說虛擬機在同一個二層網(wǎng)絡內(nèi)進行遷移將會大大簡化遷移對于三層網(wǎng)絡的影響。在這種情況下,支持大規(guī)模二層網(wǎng)絡的協(xié)議開始取代傳統(tǒng)的STP協(xié)議。目前最常見的用于大二層的協(xié)議是TRILL (Transparent Interconnection of Lotsof Links,多鏈路透明互聯(lián))和SPB(Shortest Path Bridg-ing,最短路徑橋接)。兩者都是將三層的路由的思想引入到二層的數(shù)據(jù)轉發(fā)的協(xié)議,融合了二、三層現(xiàn)有技術的優(yōu)點而規(guī)避其缺點,采用現(xiàn)有的IS-IS路由協(xié)議計算和維護網(wǎng)絡拓撲。
TRILL協(xié)議由IETF TRILL工作組制訂。它引入了新的標識—別名(Nickname)用于數(shù)據(jù)轉發(fā)的標識。運行TRILL協(xié)議的設備稱為路由網(wǎng)橋,路由網(wǎng)橋之間運行IS-IS鏈路狀態(tài)路由協(xié)議,由IS-IS鏈路狀態(tài)路由協(xié)議計算網(wǎng)絡拓撲,根據(jù)SPF算法計算用于單播數(shù)據(jù)轉發(fā)的最短路徑。對于未知單播,組播和廣播報文,會根據(jù)分發(fā)樹(Distribution Trees)進行報文轉發(fā)。分發(fā)樹是一種共享樹,可以根據(jù)VLAN來進行剪枝。全網(wǎng)可以定義多棵分發(fā)樹用于組播流量的負載均衡。為了防止環(huán)路,TRILL報文頭攜帶了Hop Count字段,在路由網(wǎng)橋轉發(fā)報文時,每經(jīng)過一跳,該字段的值會減1。當該字段的值為0時,接收到該報文的路由網(wǎng)橋會丟棄該報文。對于組播轉發(fā),除了Hop Count字段還,路由網(wǎng)橋還會進行反向路徑檢測(Reverse Path Check),以防止報文轉發(fā)環(huán)路。
SPB協(xié)議由IEEE 802.1制訂。它使用一個Common and Internal Spanning Tree(LIST),支持每個Region自動決策,選擇最大可能延伸連接所有的網(wǎng)橋和LAN,SPB連接的是網(wǎng)橋和網(wǎng)橋,主要作用在數(shù)據(jù)中心內(nèi)部和客戶端之間。SPB網(wǎng)絡中仍采用傳統(tǒng)Ethernet進行轉發(fā),因此定義了一系列的軟件算法以保證多路徑的廣播無環(huán)和單播負載均衡,其特性主要包括:
(1)定義I-SID用于區(qū)分多個拓撲,I-SID信息在數(shù)據(jù)報文中以BVID(外層Ethernet報頭中的VLAN Tag)形式攜帶,這樣可以解決不同業(yè)務多拓撲轉發(fā)的問題;
(2)到達所有相關UNI節(jié)點的SPT(Shortest PathTree)用于單播與組播報文的轉發(fā);
(3)ECT(Equal Cost Tree)以處理兩個UNI間存在多條等價路徑時負載均衡轉發(fā);
(4)使用以自己為根的多播樹MT ( Multicast Tree )用于未知單播與廣播報文轉發(fā)。
任意兩點間的Shortest Path一定是對稱的;ECT的負載均衡是基于不同I-SID分擔的。
在業(yè)界還有一些非標準化的協(xié)議,可以理解為TRILL或者SPB的變種,它們的基本思想都是一致的,在二層引入了三層的路由思想。
在不對三層網(wǎng)絡進行改變的情況下,二層網(wǎng)絡的規(guī)模越大,那么一個虛擬機可以遷移的范圍越大。使用大二層協(xié)議可以充分利用胖樹的結構優(yōu)勢實現(xiàn)流量無阻塞,并達到網(wǎng)絡故障亞秒級收斂。
3 結語
云計算數(shù)據(jù)中心在多個方面對于網(wǎng)絡架構、協(xié)議管理、運維都帶來了新的需求。目前來看,主要需求的來源可以歸納為虛擬化、大容量、多租戶。由于數(shù)據(jù)中心的規(guī)模,支持的業(yè)務以及流量模型的不同,難以對于數(shù)據(jù)中心都采用完全統(tǒng)一的拓撲結構。但是無論數(shù)據(jù)中心是采用大二層架構還是三層延伸至架頂交換機的結構或是別的結構,都需要新技術的支持才能獲得更好的性能。
目前多個標準組織,包括IETF,IEEE,DMTF等都在制訂和云計算數(shù)據(jù)中心相關的標準。其中,IETF主要側重三層和以上網(wǎng)絡,以及網(wǎng)絡業(yè)務的自動下發(fā)和網(wǎng)絡資源的調(diào)度,IEEE主要側重二層網(wǎng)絡以及為了支持FCoE而設計的無丟包以太,DMTF更側重應用層的配置管理和接口制定。另外還有相關的安全、存儲等技術也在演進中。
包括第二節(jié)所述的一些技術都還處于不完全成熟的狀態(tài),另外在組播效率和規(guī)模支持、數(shù)據(jù)中心跨地域互聯(lián)互通、存儲和數(shù)據(jù)網(wǎng)絡合一、集群、鏈路捆綁等方面需要進一步的技術優(yōu)化。
核心關注:拓步ERP系統(tǒng)平臺是覆蓋了眾多的業(yè)務領域、行業(yè)應用,蘊涵了豐富的ERP管理思想,集成了ERP軟件業(yè)務管理理念,功能涉及供應鏈、成本、制造、CRM、HR等眾多業(yè)務領域的管理,全面涵蓋了企業(yè)關注ERP管理系統(tǒng)的核心領域,是眾多中小企業(yè)信息化建設首選的ERP管理軟件信賴品牌。
轉載請注明出處:拓步ERP資訊網(wǎng)http://m.vmgcyvh.cn/
本文標題:數(shù)據(jù)中心在云計算需求下的技術分析
本文網(wǎng)址:http://m.vmgcyvh.cn/html/consultation/1083939723.html