近年來,在人工智能計算需求不斷增長的推動下,對GPU和其他計算硬件的需求急劇飆升。僅今年一年,英偉達的股價就上漲了200%以上,這一點顯而易見。此外,由于數(shù)據(jù)中心的人工智能訓練需要高速數(shù)據(jù)傳輸,對人工智能服務器集群的需求也急劇上升。隨著數(shù)據(jù)中心基礎設施的不斷擴大,光模塊的使用量呈指數(shù)級增長。目前,200G和400G光模塊已經大規(guī)模部署,800G光模塊已經開始進入量產和引進階段。
為什么需要800G光模塊?
數(shù)據(jù)中心內的數(shù)據(jù)傳輸主要分為南北流量和東西流量兩個方向。南北向流量是指數(shù)據(jù)中心外用戶與內部服務器之間的數(shù)據(jù)傳輸,東西向流量是指數(shù)據(jù)中心之間以及數(shù)據(jù)中心內服務器之間的數(shù)據(jù)傳輸。隨著ChatGPT引爆的AI大模型市場,數(shù)據(jù)中心的東西流量和內部服務器流量比例增加。
更新數(shù)據(jù)中心拓撲結構
數(shù)據(jù)中心計算規(guī)模和東西向流量不斷擴大,數(shù)據(jù)中心網絡架構也在不斷變化。在傳統(tǒng)的三層拓撲結構中,服務器之間的數(shù)據(jù)交換需要經過接入交換機、匯聚交換機和核心交換機。這給匯聚交換機和核心交換機帶來了巨大的工作壓力。
三層拓撲:如果采用傳統(tǒng)的三層拓撲,進一步擴大服務器集群的規(guī)模,則需要在核心層和匯聚層部署高性能設備,設備成本將大幅增加。
兩層Spine-Leaf拓撲:Leaf-Spine拓撲將傳統(tǒng)的三層架構扁平化為兩層架構。在這種設置中,葉子交換機(類似于傳統(tǒng)三層架構中的訪問層交換機)直接連接到服務器。骨干交換機,相當于核心層交換機,直接連接到葉交換機,每個骨干交換機連接到所有葉交換機。
AI計算和800G光模塊
與傳統(tǒng)的三層拓撲結構相比,脊葉結構需要大量的端口。因此,無論是服務器還是交換機,都需要更多的光模塊來進行光纖通信。對于使用gpu的廣泛AI訓練應用,在NVIDIA的DGX H100服務器中,集成了8個H100 gpu,對計算和存儲網絡的需求相當于大約12個800G光模塊和18個400G光模塊。更多信息可以在這篇文章中找到:NVIDIA DGX H100簡介。
這表明在葉脊架構下,數(shù)據(jù)中心對高速光模塊的需求呈指數(shù)級增長。隨著數(shù)據(jù)中心規(guī)模的擴大,特別是對AI大型模型訓練的需求,以及GPU服務器對更高傳輸速率的需求增加,800G光模塊的采用速度正在加快。
加速部署800G光模塊
在人工智能計算進步的背景下,800G模塊的需求正在穩(wěn)步上升,全球領先的制造商加大了部署力度。
例如,星際光學公司已經在2023年上半年開始增加800G光模塊的生產,與gpu匹配的800G產品一起穩(wěn)定地向海外主要客戶交付。
在OFC 2023上,海信寬帶推出了業(yè)界首款800G QSFP-DD BiDi SR4.2光模塊產品,并展示了800G QSFP-DD SR8、800G OSFP SR8、800G OSFP 2xFR4/DR8、800G QSFP-DD 2xFR4/DR8等基于PAM4信令的800G系列光模塊產品,展示了全面的產品系列。
總結
隨著GPU訂單驅動需求的確定性,800G光模塊的批量出貨階段將從今年下半年開始。800G光模塊作為人工智能計算能力的重要一環(huán),在數(shù)據(jù)中心規(guī)模不斷擴大和人工智能培訓需求持續(xù)增長的推動下,市場增長和部署速度將加快。
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報告》(以下簡稱“報告”),該報告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內的諸多行業(yè)領域都遭受了來自市場 “不確定性”因素的沖擊,市場…
博思高鄧紹昌:乘產品創(chuàng)新及客戶服務之舟,在市場變革中逆風飛揚
11月24日,由慧聰物聯(lián)網、慧聰安防網、慧聰電子網主辦的2022(第十九屆)中國物聯(lián)網產業(yè)大會暨品牌盛會,在深…