一、傳統數據中心網絡架構
數據中心前端計算網絡主要由大量的二層接入設備及少量的三層設備組成,傳統上是標準的三層結構(如圖1所示):
接入層,用于連接所有的計算節點,在較大規模的數據中心中,通常以柜頂交換機的形式存在;
匯聚層,用于接入層的互聯,并作為該匯聚區域二三層的邊界,同時各種防火墻、負載均衡等業務也部署于此;
核心層,用于匯聚層的的互聯,并實現整個數據中心與外部網絡的三層通信。
圖1 傳統數據中心網絡三層架構
傳統的網絡模型在很長一段時間內,支撐了各種類型的數據中心,但隨著互聯網的發展以及企業IT信息化水平的提高,新的應用類型及數量急劇增長。隨著數據中心規模的不斷膨脹,以及虛擬化、云計算等新技術的不斷發展,僅僅使用傳統的網絡技術越來越無法適應業務發展的需要。在互聯網領域,這一點表現的尤為明顯。
二、數據中心網絡的新變化
截至2013年12月,中國網民規模達6.18億,全年共計新增網民5358萬人,互聯網普及率為45.8%。大量網民的涌入必然帶來網絡流量的急劇膨脹。對于互聯網企業,承載具體應用的數據中心的計算資源及網絡節點常常滿負荷運轉;而對于傳統企業,隨著自身業務量的增加,以及各類業務互聯網化的需求,對數據中心的整體的吞吐量也提出了新的要求。
服務器萬兆網絡接入漸成主流
受成本、以及技術成熟度制約,傳統數據中心以千兆接入為主。隨著CPU計算能力的不斷提高,目前主流的服務器處理性能,已經超出了千兆網卡的輸出能力。同時,FC存儲網絡與IP網絡的融合,也要求IP網絡的接入速率達到FC的性能要求。當僅僅通過鏈路聚合、增加等價路徑等技術手段已經無法滿足業務對網絡性能的需求時,提高網絡端口速率成為必然之選。
萬兆以太網從起步到目前逐漸成為應用主流,延續了以太網技術發展的主基調,憑借其技術優勢,替代其他網絡接入技術,成為高性能網絡的不二選擇。目前新的數據中心,萬兆網絡接入已成為事實上的標準。
數據中心流量模型發生顯著變化
傳統的數據中心內,服務器主要用于對外提供業務訪問,不同的業務通過安全分區及VLAN隔離。一個分區通常集中了該業務所需的計算、網絡及存儲資源,不同的分區之間或者禁止互訪,或者經由核心交換通過三層網絡交互,數據中心的網絡流量大部分集中于南北向。
在這種設計下,不同分區間計算資源無法共享,資源利用率低下的問題越來越突出。通過虛擬化技術、云計算管理技術等,將各個分區間的資源進行池化,實現數據中心內資源的有效利用。而隨著這些新技術的興起和應用,新的業務需求如虛擬機遷移、數據同步、數據備份、協同計算等在數據中心內開始實現部署,數據中心內部東西向流量開始大幅度增加。
物理二層向邏輯二層轉變
在虛擬化初期,虛擬機管理及遷移主要依靠物理的網絡,由于遷移本身要求二層網絡,因此數據中心內部東西向流量主要是二層流量。為增加二層物理網絡的規模,并提高鏈路利用率,出現了TRILL、SPB等大二層網絡技術。
隨著虛擬化數據中心規模的擴大,以及云化管理的深入,物理網絡的種種限制越來越不適應虛擬化的要求,由此提出了VXLAN、NVGRE等網絡Overlay方案,在這一方案下,物理網絡中的東西向流量類型也逐漸由二層向三層轉變,通過增加封裝,將網絡拓撲由物理二層變為邏輯二層,同時提供邏輯二層的劃分管理,更好的滿足了多租戶的需求。
VXLAN、NVGRE等Overlay技術都是通過將MAC封裝在IP之上,實現對物理網絡的屏蔽,解決了物理網絡VLAN數量限制、接入交換機MAC表項有限等問題。同時通過提供統一的邏輯網絡管理工具,方便的實現了虛擬機HA遷移時網絡策略跟隨的問題,大大降低了虛擬化對網絡的依賴,成為了目前網絡虛擬化的主要發展方向。
越來越多的網絡扁平化需求
隨著虛擬化技術的進步,每臺物理服務器的虛擬機數量由8臺提升至16臺、32臺甚至更多,這使得低延遲的服務器間通信和更高的雙向帶寬需求變得更加迫切。然而傳統的網絡核心、匯聚和接入的三層結構,服務器虛擬化后還有一個虛擬交換機層,而隨著刀片服務器的廣泛應用,刀片式交換機也給網絡添加了一層交換。如此之多的網絡層次,使得數據中心計算節點間通信延時大幅增加,這就需要網絡化架構向扁平化方向發展,最終的目標是在任意兩點之間盡量減少網絡架構的數目。
為提高每臺服務器使用率,互聯網行業的網絡一般采用無收斂比的結構,然而在傳統的接入、匯聚和接入的三層模型下,且服務器開始大量采用萬兆接入,要保持無收斂比,則對匯聚/核心層交換機的上下行速率提出了極高的要求,網絡設備成本直線上升。
伴隨著業務訪問量的增長,所需的服務器數量也需要持續增長。比如國內騰訊、百度、阿里三家互聯網公司,為滿足用戶訪問,平均每兩周就有1000臺以上服務器上線。這樣的上線速度和數量,對整個數據中心的自動化運維提出了極高的要求,基礎的網絡同樣需要適應這種需求。
網絡扁平化后(如圖2所示),減少了中間層次,對核心設備交換能力要求降低,對于數據中心而言,后續擴容只需要以標準的機柜(包含服務器及柜頂交換單元)為單位增加即可,這樣既滿足了數據中心收斂比的要求,又能滿足服務器快速上線需要。扁平化成為互聯網企業網絡設計不斷追求的目標。
圖2 騰訊數據中心網絡采用的二層扁平結構
數據中心的這些變化,對網絡提出了更高的要求。Fabric物理網絡架構成為解決上述難題的一個重要手段。Fabric英文原意為“織物、布、結構、建筑物、構造”,“Fabric網絡架構”則因其內部縱橫互聯類似紡織結構而得名。簡單的說,就是通過骨干網絡節點間分層互聯(或全互聯)的方式,提供所有接入網絡的各類節點間的無差異互訪。
在Fabric架構下(如圖3所示),所有節點可以全互聯,也可以分層互聯。分層結構下,節點類型分為骨干節點和葉子節點,骨干節點與葉子節點間全連接,骨干節點僅用作轉發,葉子節點作為二三層的邊界。在這種架構下,網絡全互聯形成的大量等價路徑既保證了鏈路的冗余可靠,又提高了整個Fabric網絡的吞吐量;扁平的網絡結構保證了任意節點間較高的連接速率,同時對任意類型流量均擁有極低的時延。
圖3 Fabric網絡拓撲結構
Fabric架構給數據中心網絡部署帶來以下好處:
可以大幅降低服務器萬兆接入的建設成本。當前100GE設備及布線成本都十分高昂,服務器采用10GE接入后,傳統結構下,匯聚及核心層設備必須具備100GE的轉發能力才能保證盡量低的收斂比。在新的網絡結構下,骨干節點只做交換,網關直接部署在葉子節點,Fabric內部采用40GE速率即可滿足萬兆接入需求,大幅降低了網絡建設成本。
可以支持更大的數據中心。由于這種結構的扁平化特點,在較低的收斂比下,可以通過簡單的增加接入設備,方便的接入幾千個計算節點,通過Fabric間互聯,可以很容易的增加至上萬個計算節點,滿足了現代大型數據中心規模建設的需求。
可以滿足云計算的網絡需要。云計算將計算資源做成了一個資源池,而Fabric結構將網絡做成了一個大的資源池。這種結構不再區分南北流量和東西流量,使得計算節點與任意方向通信均無阻塞;對服務器的接入位置沒有要求,無論采用VLAN、VXLAN、NVGRE等何種技術,任意節點間可以實現高速、低時延的互聯,大幅提高了整網性能。
但是,Fabric架構并非完美。葉子節點網絡設備無論是性能要求還是功能要求,均高于傳統架構下的接入設備,其作為各種類型的網關(二三層間、VLAN/VXLAN間、VXLAN/NVGRE間、FC/IP間等等),芯片處理能力要求較高,目前尚無滿足所有協議間互通的商用芯片;由于不存在相關的標準,為了實現各種類型網絡的接入,其骨干節點與葉子節點間的轉發各個廠商均采用了私有封裝,這也為將來的互通設置了難題。
Fabric網絡架構這一全新的數據中心網絡架構,在規模、性能和簡單性方面實現質的飛躍,同時還降低了建設成本,獲得了更大的敏捷性和效率,雖然各個廠商在實現這一架構時存在一些自己私有的處理,但目前的確已成為未來數據中心網絡架構的一個公認的發展方向。
三、未來彈性、自適應的數據中心網絡
我們同樣看到,物理網絡架構改變后一些問題仍然存在,僅僅依靠對傳統技術的修修補補已經無法滿足未來數據中心網絡的需求。
數據中心規模越來越大,給運維管理帶來壓力,F代(特別是大型互聯網企業)的數據中心,規模越來越大(如騰訊天津濱海數據中心,一期規模8萬臺服務器,規劃規模達到20萬臺),所需要的網絡設備數量相當驚人。除了各個層次大量的交換機外,可能還需要部署防火墻、防攻擊設備、負載均衡、流量清洗等等網絡安全設備,設備類型也會越來越豐富。同時,這些網絡設備來自不同的廠家,擁有不一樣的操作方式。這些對運維人員的能力提出了更高的要求。
版本更新、業務變更越來越困難。網絡需要變更以適應用戶業務發展的需要,同時設備廠家會根據需要不定期發布軟件修正版本。但當數據中心發展到一定規模后,無論是業務變更還是版本更新,都變得非常困難,這既有設備規模過大帶來的巨大工作量的問題,也有如何保證業務連續不中斷的考慮。
精確的流量控制越來越難。當前流量控制主要是基于ACL及QoS,通過識別特定的流量、對其應用特定的策略,來實現對業務流量的管控。由于流量策略都是基于管理員對流量運行的假設,在各個設備預先配置來實現,且策略類型較少,而實際網絡上業務流量瞬息萬變,預先設置的策略往往不能很好的匹配,無法實現復雜的管理控制邏輯,使得QoS實施效果不佳。
歸結以上問題,實際上是網絡缺乏統一的“大腦”。一直以來,網絡的工作方式是:網絡節點之間通過各種交互機制,獨立的學習整個網絡拓撲,自行決定與其他節點的交互方式;當流量過來時,根據節點間交互做出的決策,獨立的轉發相應報文;當網絡中節點發生變化時,其他節點感知變化重新計算路徑。網絡設備的這種分散決策的特點,在此前很長一段時間內滿足了互聯互通的需要,但由于這種分散決策機制缺少全局掌控,在需要流量精細化控制管理的今天,表現出越來越多的問題。
經過多年的發展,SDN為解決這些難題提供了可行的解決方案(如圖4所示)。它通過集中的控制器來實現對整網設備的監控和管理,利用軟件的靈活、動態可擴展,提供豐富的管理控制策略,通過開放相關API,可以集成第三方APP,實現更多的個性化的網絡控制。
圖4 ONF典型SDN控制器架構
SDN網絡是一種全新的網絡。在這樣的網絡中,控制器就是大腦,它掌控全局,學習整網的拓撲,管理網絡中的各個節點。網絡中的其他節點,只需要向“大腦”上報網絡變化,并按照“大腦”的指揮,完成自己的工作即可。隨著網絡的規模的增加,網絡中“大腦”的數量、功能也隨之增加。比如,每臺控制器所管理的節點數量有限,可以組成控制器集群管理整個網絡;有的控制器控制流量轉發,有的控制器控制安全策略,還有的控制器控制虛擬網絡的管理等等。
SDN的發展也同樣存在相當的不確定性。傳統的南向接口OpenFlow會越來越復雜,現有網絡設備無法簡單升級支持;同時滿足大流表的需求將大幅提高芯片成本;控制器發展不統一,各個廠家都在爭奪自己在未來SDN網絡的話語權,標準化進程緩慢,各種私有的協議加入將導致未來網絡成為少數玩家的地盤。但我們同樣相信,無論具體實現形式如何,SDN這種集中管控、靈活動態的網絡部署必將成為未來的發展趨勢。
四、結束語
我們很快就會看到,新的數據中心采用云計算技術對所有虛擬計算資源集中管理,Fabric架構的網絡無縫實現了數據中心各個區域的互聯,基于Overlay的二層網絡實現了虛擬機的流暢遷移,集中化的SDN網絡控制器提供對數據中心整網的監控,各種流量根據數據中心當前網絡狀況實時切換經由路徑,偌大的數據中心內,寥寥數人便完成了全部的運維管理。我們相信,這就是將來的數據中心的工作情景。
附:業內主要廠商SDN方案
作為一個嶄新的網絡形式,SDN吸引了大量眼球,傳統的網絡設備廠家、軟件巨頭投入了大量的精力進行相關研發。各廠商間的競爭和融合產生了眾多的SDN落地方案:
華三通信提出VCF(Virtual Converged Framework,虛擬融合架構)方案,實現了VXLAN、NVGRE等Overlay技術在網絡設備層的落地,通過在芯片層處理Overlay報文,大幅度提高了虛擬化二層網絡的性能,同時提供VCF Controller全融合控制器,提供虛擬化網絡管理、OpenFlow流表控制、RAM管理控制等功能,與華三通信數據中心交換機一起,構成了全套的云數據中心網絡解決方案。
Cisco的ACI以新的N9000產品作為基礎,提出了融合Overlay的Fabric物理架構,并通過APIC提供面向應用的策略管理控制;
VMWare作為傳統虛擬化軟件廠家,通過純軟件化的NSX方案,提供了與物理網絡無關的二層VXLAN方案;
Juniper提出Contrail方案,即控制器間通過擴展的BGP交互,控制器與網絡節點通過XMPP、Netconf實現控制,并對OpenStack提供API插件實現云架構下的網絡管理。
核心關注:拓步ERP系統平臺是覆蓋了眾多的業務領域、行業應用,蘊涵了豐富的ERP管理思想,集成了ERP軟件業務管理理念,功能涉及供應鏈、成本、制造、CRM、HR等眾多業務領域的管理,全面涵蓋了企業關注ERP管理系統的核心領域,是眾多中小企業信息化建設首選的ERP管理軟件信賴品牌。
轉載請注明出處:拓步ERP資訊網http://www.vmgcyvh.cn/
本文標題:淺談數據中心網絡架構的發展