|
人工智能技能以及大语言模子(LLM)应用的遍及,对于算力的需求激增,也推动了各国对于数据中心的创建。此中,作为数据中心的一种,智算中心由于其具有的强大数据处理处罚本领和智能盘算本领,正成为最受关注的数字底子办法。
什么是智算中心?
那什么是智算中心呢?根据工信部印发的《算力底子办法高质量发展举措筹划》,智算中心是指通过利用大规模异构算力资源,包罗通用算力(CPU)和智能算力(GPU、FPGA、ASIC等),重要为人工智能应用(如人工智能深度学习模子开发、模子训练和模子推理等场景)提供所需算力、数据和算法的办法。
康普企业网络大中华区技能总监吴健则以为,从国际角度来讲,智算中心(即所谓的AI DC)还没有一个专门的界说。在中国市场则被界说为一个新的品类,它是数据中心的一类,即在数据中心中为了完成大模子的训练和推理,摆设了GPU的服务器,如许的数据中心就称之为智算中心。而且,数据中心中GPU服务器的占比将越来越高,在2027-2028年前后,GPU服务器数量将高出CPU服务器的数量。
据悉,如今已经建成或正在建的智算中心广泛拥有约100PFLOPS左右的智能盘算本领,可为各类应用场景提供强大的支持。据IDC的不完全统计,到2024年5月下旬,我国共创建了283座智算中心,此中高出一半处于开工/在建状态,已投产/运营的到达89座,占比31.45%。
智算中心三要素及网络互连技能
算力、网络和数据是完成智算的三个要素。此中,数据是智算必要处理处罚的对象;算力是指处理处罚盘算的芯片(如CPU和GPU等)的本领。CPU和GPU它们处理处罚数据的方式是差别的,CPU一次只能处理处罚一个复杂的任务,而GPU则接纳并行盘算,一次可以处理处罚多个简朴的任务。如上所述,在智算中心中,GPU的数量大幅增长,而其接纳的并行盘算方式,也大幅进步了算力。算力进步了,也就必要配套的传输网络与之相匹配。
吴健表现:“GPU算力每年翻两倍,10年就要翻1000倍。那也就预示着,网络也应该10年翻1000倍才华与之相匹配。以是,如今的网路已经滞后于算力。智算中心随着GPU的应用,它必要一个高可靠、高带宽、低延时的无损网络。”
以是,随着智算的快速推进,400G以上网络的占比将占主导职位,包罗400G、800G和1.6T。
如今,智算中心接纳的网络互连技能重要为InfiniBand(IB)和以太网。吴健表现:“AI必要IB和以太网两种网路装备来支持。如今,这两种技能的速率发展较为同步,都会快速进入到800G、1.6T。但IB在整个智算中的服从、稳固性要比以太网好一些。”
从物理层而言,IB和以太网是一样的,但IB和以太网利用的互换机则是差别的。很多人以为,以太网大概无法跟上IB的演进速率,由于IB是一个无损网络,而以太网则不是一个专用网络,很难做到无损。吴健表现:“如今,从协议层和硬件层面举行一些技能的优化,以太网也可以做到无损了。”
以是,未来,吴健以为,至少在中国市场,以太网代替IB是势在必行的。
智算中心组网
智算中心的组网重要分为前端网络和后端网络。前端网络是指智算中心和外部的互连,即将智算中心盘算的结果通过前端网络传输出去;而后端网络则是指GPU之间的互连。
与传统网络相比,智算中心的前端网络没有多大变革,但后端网络变得特殊的巨大,涉及AI集群内的互连以及AI集群间的互连。智算中心中的网络必要高带宽、低斲丧、低延时以及高密度的毗连,可以未来还将必要更小尺寸的毗连器举行毗连,并办理回波斲丧等标题。
这些网络都是由线缆毗连而成,未来,随着网络速率的进步,光线的数量将会进步。在整个AI集群中,除了光纤布线,尚有线槽,以及铜缆毗连等。
吴健表现:“康普在AI布线市场已经布局多年,已取得了非常大的乐成,包罗一些万卡集群以及一些高性能的布线体系,康普都能提供对应的办理方案。”
康普的布线办理方案不光满意客户当下的需求,也能资助他们实现恒久规划。吴健表现:“如今国内数据中心的筹划相对来说还比力缺乏前瞻性,只举行一两年的规划,而不思量久远利用,这实在很浪费质料,不环保。”
康普企业网络大中华区总司理兼副总裁陈岚表现:“如今很多数据中心的项目将布线做成了次抛型,这是很不环保的。网络底子架构接纳布局化布线,固然初次本钱大概轻微高一点,但后续升级、扩展以及维护的本钱很低,且利用的生命周期很长,从久远来看反而节流了本钱。”
写在末了
随着人工智能以及大语言模子等技能的飞速发展,对于算力的需求大幅增长,而网络作为支持这些技能的传输“骨干”,也必要齐头并进。而在整个网络底子装备的构建中,布线固然是不太起眼的一部分,但它可以说是智算中心的“血管”,起着举足轻重的作用。而随着对更环保化、更据经济效益的布线方式需求的增长,布局化布线大概会是未来智算中心布线的主流方式。对于布线供应商来说,着眼如今,布局未来,才华在这一波AI海潮中立于潮头。 |
|