乐鱼官方网站

网站首页

产品中心

乐鱼 乐鱼官方 乐鱼官方网站 乐鱼电子官方网站

新闻中心

关于乐鱼官方网站

公司概况 核心优势 核心团队 发展历程

联系乐鱼官方网站

官方微信 官方微博
乐鱼官方网站 > 新闻中心

最好的AI处理器第五代英特尔至强发布

发布时间:2024-02-20 13:06浏览次数: 来源于:网络

  AI其实是一项已存在几十年的技术。但实际上在过去5年里,我们才开始看到前所未有的进步。英特尔执行副总裁兼数据中心与人工智能事业部总经理Sandra Rivera更是直言:“人工智能创新的步伐令人惊叹,且没有放缓。”

  显而易见的是,过去几年里技术的快速进步,让AI拥有足够的能力“入侵”人类生活的方方面面,英特尔也凭借领先的产品和技术利用AI赋能千行百业。例如企业利用英特尔AI降低成本、提高流程效率;在金融业凭借英特尔AI能让金融服务更易得;医疗保健领域也利用英特尔的技术提高诊断和治疗的准确性。

  “我们甚至在英特尔的运营中部署AI,以提高我们的效率、准确性和灵活性。”Sandra Rivera说。她同时也指出,在AI蓬勃发展的同时,很多问题也随之而来,当中就包括数据管理、可持续性以及道德和隐私方面的问题。

  致力于让AI无处不在的英特尔正在全力以赴,帮助开发者一一破解这些问题,公司引以为傲的硬件当然是其服务客户的根本。早前在俄勒冈,英特尔更是率先给我们了其领先软硬件展示。

  熟悉英特尔的读者应该知道,这家全球领先的半导体厂商在面向AI方面,能提供的硬件解决方案的包括了至强、酷睿、Gaudi以及Flex和Max 系列GPU等优越产品。在针对AI的连续性进行了优化后,英特尔的这些方面可以应用于云端、边缘和个人电脑等场景。当中,至强系列无疑是最值得一提的处理器。

  近日,英特尔公司也终于正式推出了第五代英特尔至强可扩展处理器(以下简称第五代至强)。在英特尔副总裁兼至强产品和解决方案事业部总经理Lisa Spelman看来,该系列处理器堪称目前最好的AI处理器。

  “在第五代至强上,我们将继续聚焦于提高性能,满足客户在现实环境中最关键的工作负载需求。与第四代类似,新一代的处理器将继续从生产方式到最大化总体拥有成本的电源管理特性等方面,提高至强的效率和可持续性。”Lisa Spelman接着说。

  首先看一下AI性能方面。据介绍,较之前一代产品,第五代至强在物体检测方面的AI推理性能提高了42%。但更令人印象深刻的是我们的软件优化带来的性能提升。Lisa Spelman也表示,自从英特尔今年早些时候在第四代至强上测量了其第一个大语言模型以来,到目前为止,英特尔已经将在相同硬件上的第二个token延迟降低了五倍。这意味着你的聊天机器人可以比人类阅读的速度还要快地做出响应。

  再看通用性能方面,从英特尔提供的数据可以看到,第五代至强让客户的通用计算性能提升21%以应对广泛的常见工作负载。而随着功率成为计算增长的阻碍,英特尔还在继续专注于提供每瓦性能的改进和创新。Lisa Spelman透露,第五代至强在在一系列客户工作负载中将每瓦性能提升高达36%,但公司还将进一步讨论如何通过优化的电源模式提供额外的15%的节能机会。

  除此以外,借助第五代至强,英特尔还能帮助客户带来极高的TCO改善。总而言之,第五代至强不但能帮助开发者降低提供服务的总体成本,释放机架空间和电力以支持AI等工作负载的增长。同时,改代处理器还能帮助开发者降低电费并帮助实现可持续发展目标。

  之所以能在这一代上至强上获得如此大的提升,英特尔在产品硬件的配置上拉满功不可没。

  首先在芯片设计上,和上一代采用四个die设计的方式不一样,英特尔在新一代的至强采用的两个die设计。这样的改变不但能更好的核心数量、更好的能效,还能更好的延迟和更大的缓存。英特尔方面也透露,在新一代的至强上,最高拥有多达64个核心;而末级缓存也大幅增加了三倍,达到320MB。

  来到内存方面,英特尔为第五代至强的每个CPU搭配一个8 通道DDR5,提供高达5600 MT/s (1 DPC)。值得的一提的是,这些DDR还支持9x4 RDIMM、3DS RDIMM;新的RAS功能(增强型ECC、错误检查和清理)以及1 DPC和2 DPC ( 4400 MT/s) ,这让该处理器在实际应用中“如虎添翼”。

  对下一代接口CXL1.1的支持则是英特尔第五代至强不得不提的又一个亮点。作为一种新型的高速互联技术,CXL被推出的目的旨在解决过去内存分割带来的浪费以及CPU和设备、设备和设备之间的内存鸿沟,以满足现代计算和存储系统的需求。

  具体到英特尔这一代至强上,每个CPU最多能支持4个CXL设备 — 一类和二类设备。其中一类设备包括CXL.io和 CXL.cache(例如SmartNIC);二类设备则包括CXL.io、CXL.cache 和(例如 GPU、ASIC、FPGA)。

  “通过DDR+CXL的12路交错,能实现带宽/容量的扩展。”英特尔资深院士Sailesh Kottapalli补充说。

  此外,英特尔第五代至强搭载了80条通道的PCIe 5接口,在继承上一代的X2分叉的同时,还改进了DDIO和QoS功能,让其在扩展中游刃有余;高达20 GT/s的UPI速度也让这系列处理器的性能再次获得增强。

  为了满足不同客户的需求,英特尔也为第五代至强设置了多个系列的SKU。例如针对入门级和边缘物联网市场的需求,公司就还打造了集成EE LCC芯片的专用边缘增强型低核心数SKU。

  据介绍,这些LCC在单片拓扑中支持多达20 个内核。而作为第五代至强堆栈的一部分,这些SKU支持低至105W TDP和特定SKU 的十年可靠性。因为入门级和边缘物联网市场注重改进的性能/价格和10年可用性,这也是TDP受限的环境中所需的具有较低的核心数量和较高性价比的选项。

  在这些配置支持下,如下图所示,英特尔这代处理器在AI方面获得了优越的性能表现。这也是英特尔敢称之为最好的AI处理器的原因之一最好的AI处理器第五代英特尔至强发布。然而,正如Sandra Rivera所说,除了硬件以外,英特尔在软件方面的投入,也是公司能够把AI应用从云覆盖到网络,再到边缘和PC的另一个重要原因。

  英特尔方面表示,为了让AI无处不在,公司正在借助开放的生态系统,让公司能够提供更广泛的AI解决方案和更具成本效益的部署。也能够在一个安全的混合环境中,使人工智能更易于访问和扩展,以满足各种工作负载的需求。当中,软件堆栈的投资则让客户开发者免除了后顾之忧。

  据介绍,英特尔在软件的投入,让开发者可以使用他们熟悉的AI框架、工具包和语言。公司开发的基础软件和数据库也通过Pytorch和ONNX Runtime等流行框架支持自身的 CPU、GPU、IPU和AI加速器。“我们还为开发人员提供可扩展的AI基础设施以及系统硬件和统一软件以提高生产力。这使得客户和开发人员能够专注于构建应用程序和服务,而不用担心功能或可移植性。”Sandra Rivera表示。

  英特尔网络与边缘事业部软件工程首席副总裁兼总经理Andres Rodriguez也补充说:“我们致力于通过生态系统的优化,进而提升客户使用的流行软件。”

  他举例说道,现在,如果你用pip安装 PyTorch或tensorflow,默认安装会包含英特尔的优化。但几年前情况并非如此。不过,我们必须承认,在优化完成和被默认安装接受之间还存在延迟。为了消除这一延迟,让开发人员可以立即利用其优化,英特尔提供了PyTorch和TensorFlow的库扩展,这将有助于开发者使用默认安装运行这些扩展以获得最新的软件加速。

  “对于推理端,你则可以继续使用PyTorch或TensorFlow,或利用OpenVINO,这是一个针对多个硬件后端的轻量级开源模型服务库,并支持英特尔最新的优化。”Andres Rodriguez在其演讲中指出。

  从上面的介绍中,我们看到了OpenVINO这个熟悉的身影。作为一套由英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,OpenVINO可扩展跨英特尔硬件的计算机视觉和非视觉工作负载,从而最大限度地提高性能。

  在实际应用中,据英特尔院士兼数据中心与人工智能集团AI架构师Pallavi Mahajan介绍,因应当前PC和边缘端的AI潮流和“混合式AI”发展趋势,开发人员可以通过利用OpenVINO,实现“一次编写,随处部署”的愿景。他指出,基于云原生技术所构建,OpenVINO在多年AI模型优化的基础上不断演进升级。而通过支持异构执行,则可以避免重复编码,从而加速创新。

  “这使开发人员能够在整体的计算工作负载中,无论是在云端、客户端或是边缘,均可根据不同的KPI、延迟、成本或法规法规等具体情况,通过AI模型构建最佳的‘无缝’体验。”Pallavi Mahajan说。

  与此同时,英特尔还在拓展OpenVINO的应用范围,使其成为广泛的PC和边缘端用户的“首要选择”,帮助这些开发人员在任何模型、任何硬件,以及任何地方获得无缝的AI体验,且无需重写任何应用。据Pallavi Mahajan所说,当前演进的OpenVINO支持开放的生态系统,其生态内采用率逐年增长90%。这意味着OpenVINO通过采用单个模型的各层并将其分布在加速器上来支持异构计算和多种架构。

  值得一提的是,刚刚发布的OpenVINO 2023.1版本正在加速英特尔追求的“任何硬件、任何模型、任何地方”的目标实现,即逐步扩展OpenVINO成为跨客户端与边缘端的、针对推理与部署运行AI模型的完整软件环境。

  面对当前的开发者和企业正在利用云原生环境,通过Kubernetes等技术在他们组织内扩展 AI的行业现状,英特尔也优化了基于至强集群的Kubernetes上可扩展部署AI模型的性能。例如,使用英特尔MPI和OneCCL的Torch DDP进行PyTorch模型的微调,并额外配置Kubernetes以优化堆栈各层的性能。

  借助这种方法,英特尔让企业能够在跨至强集群的云原生环境中扩展其AI需求。Andres Rodriguez也补充说,在过去的几年,英特尔不但与软件生态系统合作,实现至强提供的AI功能。同时,公司还与CSP、OEM 和ISV客户合作,确保开发人员能够无缝利用至强中的AI功能。

  在问到第五代至强的最大吸引力是什么的时候,英特尔资深技术专家Allen Chu回应道:“客户需要运行的工作负载各不相同,因此使用到的功能也不尽相同。如果你的工作负载没有利用更大的代码行数,那么更大的代码行数对您来说是没有意义的。但如果您的工作负载确实如此,那么这就是您需要考虑的主要因素。”

  “除此之外,我们的核心数量也从56 核增加到 64 核,这对于想要继续扩展或打造更高密度基础设施的客户来说,比较具有吸引力。因为现在在相同的功率范围内有 64 个内核,每个系统将拥有更多的虚拟处理器。”Allen Chu接着说。再者,对于科学计算领域中的工作负载来说,内存带宽是个需要着重考虑的因素。而英特尔在这第五代至强上也提高了内存速度,为系统提供更多内存带宽。

  “整体而言,我们的芯片更新迭代始终是致力于为客户提供更高的利用率。”Allen Chu总结说。

下一篇:英伟达推出顶级AI芯片H200 取代H100成为新的最强AI芯片
上一篇:性能炸裂!最强AI芯片诞生全面反超高通华为

咨询我们

输入您的疑问及需求发送邮箱给我们