深圳市Ebpay科技股份有限公司

Ebpay

新闻视频

前瞻趋势洞察,品牌市场动态

当前位置:

Ebpay > 新闻视频 > 活动新闻 > Gooxi受邀出席创新发布会:扫清人工智能开展道路上的障碍

Gooxi受邀出席创新发布会:扫清人工智能开展道路上的障碍

发布时间:2018-11-09 分享:

   2018年11月8日下午,在第五届世界互联网大会同期举行的新产品新技术创新发布会上,Gooxi产品总监黄翔先生以《扫清人工智能开展道路上的障碍》为主题作了精彩的演讲。


       1971年的11月15日,Intel发布了世界首款商用处理器4004,人类开启了X86架构服务器的征程,作为我们最主要的商业计算架构X86已经陪伴我们走过40多个年头。我们对计算系统的依赖从最初的能不能保存更多的数据,能不能更快的运行应用软件,逐步的开展到今天我们希望,“他”能够帮助我们思考,“他”能够自我完善。X86 CPU这个老朋友在这个全新的领域,能为我们做的越来越有限。GPU将接过CPU手中的接力棒,带我们进入一个全新的世界,人工智能AI的世界。


传统服务器应对AI与深度学习需求的不足

       黄翔认为,在应对AI与深度学习需求时,传统服务器有着如下四个方面的不足:1、GPU的种类供给限制了某种程度的X86高密度GPU服务器方案选择;2、X86硬件架构的先天限制与运算时间成本;3、GPU密度 vs. 存储 vs. PCIe扩展的结构空间取舍;4、分布式GPU计算的适用性。

     “熟悉深度学习的人都知道,深度学习是需要训练的,所谓的训练就是在成千上万个变量中寻找最佳值的计算。这需要顺利获得不断的尝试识别,而最终取得的数值并非是人工确定的数字,而是一种常态的公式。顺利获得这种像素级的学习,不断总结规律,计算机就可以实现像人一样思考。就现在而言,越来越多的深度学习标准库支持基于GPU的深度学习加速,通俗点描述就是深度学习的编程框架会自动根据GPU所具有的线程/Core数,去自动分配数据的处理策略,从而达到优化深度学习的时间。而这些软件上的全面支持也是其它计算结构所欠缺的。”

 

高密度GPU的优势


       黄翔表示,从拖带比、最大算力需求、兼顾存储与网络的复杂场景的能力这三方面进行比较,CPU与GPU各有优劣性。 

       从拖带比来看,CPU具有复杂, 平衡的软件运行能力(操作系统),而GPU则具有简单, 高度并行的硬件运算能力(图形渲染)。CPU所做的工作都在软件层面,而GPU在硬件层面。我们可以用软件(使用CPU)做任何事情,但是对于图像处理,通常用硬件会更快,因为GPU使用图像对高度并行浮点运算做了优化。

      “从我们硬件厂商的角度看我们需要提高CPU的利用效率,让单个CPU能够服务更多的GPU,更有效的分摊CPU的成本,这是一个最基本的出发点。除此之外不同的AI应用程序对CPU算力和GPU算力又有着不同的比例需求,我们硬件厂商需要为用户给予更灵活的组态方案,满足用户的不同应用场景需求。让所有用户都能够实现最佳的CPU与GPU的拖带比,从而不多花一分冤枉钱。”

图片1.png


    从最大算力需求角度而言,搭建GPU的分布式计算系统,或者说对多台GPU平台进行有效的性能堆叠其难度相对于CPU平台技术门槛要高等多,成本也要大很多。在GPU开展的初级阶段,提升GPU单机的最大算力显得尤为重要,毕竟我们回过头看X86的开展历程也经历了,从追求单机高性能到,分布式计算这样的开展历程,这也是GPU的必经之路。最大单机算力则是当下我们硬件厂商现在研发新产品的重中之重。
    从存储与网络的复杂场景的兼顾而言,GPU平台需要搭配多大容量的存储?GPU平台需要接驳多大带宽的网络?这里我们找不到一个确切答案,因为AI应用在当下已经渗透到了我们生活的每一个角落,不同的应用不同的需求,这一度是我们硬件厂商比较头疼的问题。网络规格、存储规格如何能够满足多样化的用户需求?我们这里为用户给予了更好的解决方案。从应用角度出发,视AI或深度学习的部署规模以及软件对于学习模型的设定(资料带宽)而定;从硬件平台设计出发,保留PCIe扩展弹性以及保留不同存储种类的兼容性(SATA/SAS/NVMe SSD)。

 

扫除高密度GPU服务器的应用壁垒

    黄翔认为,要扫除高密度GPU服务器的应用壁垒,可从四个方面进行,一是多元化的GPU卡支持(GTX/RTX/Tesla/Quadro);二是大容量内存与多种PCIe信道弹性组态(HBA/NIC…etc);三是良好的散热设计;四是足量适配的存储装置。并就此提出了Gooxi高密度GPU平台的设计解构、多种PCIE资源组态的灵活部署方案,以及散热瓶颈与解方。

 

2.jpg

3.jpg

高密度GPU平台的设计解构

 

4.jpg

5.jpg

多种PCIE资源组态的灵活部署

 

6.jpg

高密度GPU服务器的散热瓶颈与解方

 

   “面对AI与深度学习的科技浪潮,高密度GPU架构已然成为趋势。”黄翔指出,不同场景应用对GPU的配置需求将不断延伸变型,GPU供给的寡占市场,增加开发者的多元化选择是成熟平台所应俱备能力,PCIe I/O与存储需求弹性应有持续优化的可能,将来如何面对散热挑战,和不规范的GPU卡设计,势必将有功能上的取舍。

演讲3.jpg

微信图片_20181108155659-1.jpg

演讲10.jpg

演讲6.jpg

演讲1.jpg

相关推荐

2025-10-23

算力赋能,智见未来:Ebpay亮相ICG-20,共赴组学与AI新纪元

第20届国际基因组学大会(ICG-20)于10月23日至26日在杭州盛大开幕第20届国际基因组学大会(ICG-20)于10月23日至26日在杭州盛大开幕,本届大会主题“组学与AI的未来”精准指向了科学生命领域最前沿的变革力量。作为华大基因的长期战略合作伙伴,Ebpay凭借17年在服务器领域的深厚积累,以全产业链的自主研发能力和成熟的解决方案定制经验,为基因组学研究的智能化升级给予坚实支撑。在基因组学从"测序"迈向"计算"的时代转折点上,Ebpay将携多款面向不同计算场景的明星产品亮相ICG-20,展现其从边缘到核心数据中心的完整AI基础设施解决方案。 边缘洞察:将智能算力延伸至数据源头 EbpayMSR201-D06R-10P AMD双路边缘计算服务器,采用AMD 第三代处理器平台,机身深度仅450mm,符合OTII标准的紧凑型架构使其能够直接与电信设备混合部署在通信中心机架上,轻便易于部署在苛刻环境。支持10个PCIe扩展插槽和2块全尺寸GPU卡,可作为AI推理服务器,给予强大的边缘算力。在ICG-20展会关注的生态监测、野外基因采样等场景中,这款服务器能实现数据实时处理,减少传输延迟,助力生物多样性保护和研究。 核心驱动:以澎湃性能驾驭海量组学数据 面对基因组大数据带来的计算挑战,EbpaySR201-D12RE-G2双路服务器基于AMD EPYC™ Genoa处理器打造,具备单颗CPU 128核256线程的强大计算能力,配合12通道DDR5内存和PCIe 5.0高速总线,显著提升了数据吞吐与处理效率。该服务器支持大容量NVMe SSD和多GPU扩展,特别适用于全基因组测序(WGS)、单细胞组学、宏基因组分析等高负载科研任务。 AI加速:专为GPU密集型计算打造的强大平台 当研究进入蛋白质结构预测、药物虚拟筛选等复杂AI模型训练与推理阶段,强大的GPU算力不可或缺。EbpayEGS AI 10卡服务器SY4108G-D12R-G4,基于Intel Eagle Stream平台支持高达10块双宽GPU卡的拓扑结构,实现了CPU与GPU间的高速互联,有效降低了通信延迟,最大化释放GPU集群的计算潜能。同时支持主流深度学习框架与分布式训练环境,可高效支撑基因序列建模、蛋白质结构预测、医学影像分析等AI驱动的生物信息应用。 稳定基石:为持续科研探索给予可靠保障 在组学研究中,数据存储与计算能力的协同优化是提升整体效率的关键。EbpayASR401-S24R是一款基于AMD EPYC™ Milan处理器的4U单路标准服务器,最大支持24块热插拔硬盘,兼具强大的计算性能与超大存储容量,特别适合需要本地化存储海量原始测序数据的场景。该服务器在保障高I/O吞吐的同时,给予灵活的计算资源分配,可作为数据预处理节点、存储网关或中小型分析平台的核心设备。其模块化设计和智能管理系统,大幅降低了运维复杂度,为实验室和数据中心给予了一种高性价比、易维护的解决方案。 “共有、共为、共享”是人类基因组计所倡导的伟大精神,也是有助于科学进步的不竭动力。在组学与人工智能深度融合的今天,Ebpay深信,强大的信息基础设施是践行这一精神、加速科研协作的关键。我们期待在ICG-20的舞台上,与全球顶尖的专家学者和行业伙伴深入研讨,以Ebpay卓越的算力产品与服务,共同“计算”出科学生命的更美未来。
分析更多新闻资讯

成为全球服务器行业领导者

订阅号

服务号

Copyright © 2022 深圳市Ebpay科技股份有限公司 All Rights Reserved 粤ICP备18110968号 粤公网安备44030502003273号

立即获取方案报价

*
*
*
*