ICCSZ訊 2016聯(lián)想全球超算峰會中國站今日在京開幕,作為HPC系統(tǒng)的“標(biāo)配”網(wǎng)絡(luò)提供商以及聯(lián)想多年的合作伙伴,Mellanox自然不會缺席。
>>>>Mellanox亞太及中國區(qū)市場開發(fā)高級總監(jiān)劉通
在《教育,科研,醫(yī)療》分會場中, Mellanox亞太及中國區(qū)市場開發(fā)高級總監(jiān)劉通圍繞Mellanox HPC智能網(wǎng)絡(luò)方案為現(xiàn)場聽眾帶來了精彩的主題演講。
劉通表示:“面對未來的高性能計(jì)算, Co-Design(協(xié)同設(shè)計(jì))——即軟件和硬件進(jìn)行協(xié)同開發(fā)將是必然的趨勢。作為高性能計(jì)算領(lǐng)域的驅(qū)動者,Mellanox始終致力于打造高帶寬低延遲的智能網(wǎng)絡(luò)互連設(shè)備,尤其在InfiniBand領(lǐng)域處于不可辯駁的領(lǐng)先地位。”
Switch-IB 2 100Gb/s InfiniBand交換機(jī)便是Mellanox針對高性能計(jì)算、Web 2.0等優(yōu)化的智能交換機(jī)之一,通過獨(dú)有的SHArP技術(shù),能將MPI(信息傳遞接口)操作從CPU卸載至網(wǎng)絡(luò),讓交換機(jī)發(fā)揮協(xié)處理器的作用,從而將性能提升10倍。
Mellanox日前還發(fā)布了全新ConnectX-5系列智能網(wǎng)卡,其每秒最高可以處理2億條消息,可助力實(shí)現(xiàn)更強(qiáng)大的HPC性能。它采用創(chuàng)新性的MPI負(fù)載技術(shù)(如MPI標(biāo)簽匹配和MPI All to All),并且配置了領(lǐng)先的動態(tài)路由以及可運(yùn)行不同數(shù)據(jù)處理算法的新功能。
通過智能卸載功能,ConnectX-5能夠顯著提升CPU、GPU和FPGA的性能,同時(shí)避免CPU超負(fù)荷運(yùn)行。
>>>>Mellanox展臺一覽
市場需要的不僅是最快的互連速度,而且還需要能夠釋放CPU資源的最智能、最有效的解決方案,使CPU專注于為應(yīng)用提供計(jì)算能力,而非網(wǎng)絡(luò)。
而InfiniBand也不僅僅承擔(dān)簡單的網(wǎng)絡(luò)轉(zhuǎn)發(fā)功能,而是成為了更加智能的單元,幫助CPU回歸“本色”——真正有效的計(jì)算資源。
π目前支持著數(shù)十個(gè)研究組的工作,解決包括等離子體仿真、基因組學(xué)以及分子動力學(xué)等科學(xué)難題,而這些研究都迫切需要超低延遲的網(wǎng)絡(luò)支持以及超高速的文件系統(tǒng)訪問能力。
經(jīng)過深入的調(diào)研,上海交大發(fā)現(xiàn)Mellanox InfiniBand可以滿足應(yīng)用的苛刻要求,有效降低節(jié)點(diǎn)間的延遲,充分發(fā)揮跨節(jié)點(diǎn)間計(jì)算性能。
>>>>Mellanox RDMA(遠(yuǎn)程直接數(shù)據(jù)訪問)技術(shù)
上海交大HPC中心GPU計(jì)算工程師也對Mellanox InfiniBand解決方案稱贊有加:“當(dāng)前,高性能計(jì)算中心運(yùn)行著諸多對I/O要求較高的應(yīng)用程序,包括人類基因組測序等等。Mellanox InfiniBand所具備的RDMA技術(shù)有效保障了Lustre并行文件系統(tǒng)的高可靠和高性能。InfiniBand是工業(yè)標(biāo)準(zhǔn)網(wǎng)絡(luò),每一代新產(chǎn)品都與前一代產(chǎn)品完美兼容,這為我們高性能計(jì)算中心的平滑升級奠定了良好基礎(chǔ)。”