新观点全球云市场稳步发展,云服务将迎来比较好时代
(文章来源:EEWORLD)quickq的相关问题可以到网站了解下,我们是业内领域专业的平台,您如果有需要可以咨询,相信可以帮到您,值得您的信赖!https://www-quickq.com/https://www-quickq.com/uploadfile/202408/a8004d0b595fcfc.png
大规模部署、管理和编排计算加速芯片并不容易。相反,云提供商的经济权衡更倾向于加速器产品提供的非性能方面,比如操作系统驱动程序。LI在过去一年中一直在跟踪四大基础设施即服务(IS)云提供商提供的例类型和大小:阿里云、亚马逊云服务(AWS)、谷歌云平台(GCP)和微软A。
在比较近的L会议上,KK在他的演讲中提到了编译器专业知识的重要性。然而,应用程序对加速器硬件的高效使用只是跨云地理管理和编排加速器芯片所需的整个软件解决方案的一部分。
数据中心日益膨胀,运营商正在寻找新方法来加速大量数据驱动的工作负载,从深度学习到自然语言处理。在我们即将到来的数据中心特别项目中,我们将深入研究加速AI模型训练和推断、数据分析和其他分布式应用的敏捷和超聚合数据中心架构。
在排前四的云服务商中,所有的加速器芯片(论类型或制造商)在过去的一年里都只连接到英特尔的X处理器上,除了比较近在微软A上安装了AMD的EPYC。A在今年2月率先打破了这一格局,首次生产部署了带有AMD EPYC 2 R处理器的AMD R I MI25GPU。
超大规模的挑战是对对不同处理器模型的软件驱动程序支持,所述不同处理器模型运行不同的操作系统发行版本,且版本是针对每个加速器芯片的多个版本。阿里云平台的服务器大多使用 至强处理器,而且大多是定制版,包括P(铂金) 8163、G(奖牌) 6150、G(奖牌) 6149、E5-26824、E5-26803、E5-26674以及E3-12406等CPU。
阿里云正式发布云服务器ECS企业级产品家族,目前已推出面向173种企业应用场景的19款例。该系列适合在复杂的企业计算环境下,满足对于高性能、高可靠的计算需求。同时阿里云也新发布了该系列产品中采用25G络与S处理器的全新一代例,性能持续领先。这是阿里云首次将云服务器产品线细分出企业级产品家族,与入门级产品家族相比,这一新家族例具备更强的计算性能与可靠性,适合于核心生产业务需求的计算。
目前ECS企业级产品家族包含19款例族,分为通用型(G P T)、计算性(C T)、内存型(M T)、高主频(H F C T)、本地SSD型(L SSD T)、大数据型(B D N E T)、GPU计算(GPU C T)、FPGA计算(FPGA C T)等类型,分别适用于包括AI、医疗、视频直播、金融、电商、IT在内的173个应用场景。
虽然编译器和加速必须是高性能,但是加速驱动程序必须是稳定可靠才行。超大规模的客户希望看到修复、防弹质量保证以及比较重要的过程控制方面的速转变。在处理器市场中,可靠性、可用性和可服务性(RAS)一直是采用A处理器的比较大障碍之一。加速器也不例外。确保驱动程序RAS处于超大规模是一个与设计性能编译器截然不同的技能集。它需要时间来发展技能和过程控制来展示一个稳定的行为的历史。
英伟达的86%的例类型由前四个云服务商提供。这一份额与FPGA(英特尔和X)、GPU(AMD部分产品和比较近的R I)以及云自身的内部设计(谷歌云张量处理单元和AWSI)等高度分散的竞争领域形成了鲜明对比。在这里,仅仅在加速器的开发工具后面使用性能编译器是不够的。我们假设每个加速器芯片开发团队都有机会接触到相当秀的编译器开发人员和普通的开发人员工具设计人员。
开发工具必须能够被大量的潜在客户使用,并且必须按照开发人员所期望的那样工作。N的CUDA为工具开发者提供了一个灵活的基础,使他们能够跨N的GPU产品线支持各种各样的开发工具。英伟达在加速器市场的份额在过去一年中略有增长,在前四大云计算中,基于加速器的整体部署增加了近70%。
A支持AMD的R I MI25在一个类型家族(NV4)中,但只在W上,类型家族的每个例的部分GPU配置是典型的虚拟桌面环境。AMD已经展示了对际企业桌面环境的强大支持,其先进的GPU虚拟化特性使其GPU在虚拟桌面方面具有竞争力。
只有通过深度学习框架,才能使用内部设计的深度学习加速器。谷歌允许开发人员通过TF和PT访问其云TPU。AWS允许开发人员通过自己的AWS神经元软件开发工具包(SDK)访问它的“下一层”芯片,AWS已经集成了TF、PT和MXN。
A提供了一个基于IA10FPGA例类型(PB)。但是A只允许通过一组预先开发的深度学习推断模型来访问这一类型:RN50、RN152、DN-121、VGG-16和SSD-VGG。A在2022年11月将其FPGA例类型部署到生产中。
阿里云和AWS提供通用FPGA例类型,并与第方合作,在应用市场上提供FPGA开发工具和预先开发的应用程序。有两个挑战。首先,FPGA开发技能很少,不像GPU开发工具和深度学习建模框架。其次,FPGA市场应用程序必须比基于GPU的应用程序显示出明显的势。
芯片产业的摩尔定律想必大家都不陌生,通俗版的解释是每18个月同等价格的芯片计算能力会翻倍。比较近几年在PC和移动等个人芯片已满足大多数计算需求时,关于摩尔定律不再生效的论调也遍地都是。
际上,传统计算硬件还在发展,只是速率慢了。随着大数据、人工智能的崛起,需要AI运算处理的数据,差不多每24个月就至少增长一倍,建构模型的复杂度是原来的五倍,与之相关,就需要计算能力强大十倍芯片能及时跟上,这一计算能力的提升,需要算法、软件和硬件工艺相互配合共同来完成。
为了应对量级增长的算力需求,百度发布了昆仑AI芯片,参数如下:14工艺;260T性能;512GB内存带宽;100+瓦特功耗。昆仑AI芯片具有高效、低成本和易用大特征,其针对语音、NLP、图像等专门化,同等性能下成本降低10倍,支持等多个深度学习框架、编程灵活度高、灵活支持训练和预测。
在IS方面,在软件即服务的云中,F正在与开放计算平台(OCP)加速器模块工作组(OAM)合作,开发标准化的培训和推理平台。OAM培训平台被设计用来容纳大范围的高瓦数、商业深度学习加速器,使用一个可互换的模块,集成了加速器芯片和散热器,包括AMD、IHG和N加速器。同样地,OAM推断平台被设计成在一个标准的M2物理载体中容纳各种各样的小的低功率推断加速器。
F已经设计了自己的G编译器,以化在标准框架(如PT)中开发的推断模型,使之适用于每个特定的基于2的推断加速器。开放式基础设施,如OCP的OAM,将使低层云能够更好地与AWS、A、GCP和阿里云等巨头正在激烈竞争。
(
页:
[1]