您当前的位置: 全球新闻网 > 科技 > CPU也支持AI加速,英特尔发布第3代至强处理器,推理速度提升80%,阿里腾讯云都在用

CPU也支持AI加速,英特尔发布第3代至强处理器,推理速度提升80%,阿里腾讯云都在用

发布日期:2020-06-20

原标题:CPU也支持AI加速,英特尔发布第3代至强处理器,推理速度提升80,阿里腾讯云都在用

晓查发自凹非寺

量子位报道|公众号QbitAI

AI时代,英特尔最担心的是什么?当然是自家的CPU被GPU、TPU等AI硬件的冲击。现在英特尔的新一代CPU也带来了全新的AI加速能力。

今天,英特尔发布了三款硬件产品,都是为了AI而准备:第三代至强(Xeon)可扩展处理器、新一代的傲腾(Optane)存储器以及StratixAIFPGA。

至强可扩展CPU

首先,英特尔发布了CooperLake至强可扩展处理器,也就是英特尔的第三代至强可扩展服务器CPU。

在英特尔的路线图中,还有IceLake至强处理器将在今年晚些时候推出,也属于第三代,只是支持的CPU数量比CooperLake更少,应该是一款面向中低端的产品。

对于CooperLake平台,英特尔加入了一项重要更新,增加了基于AVX-512的BF16指令,引入了全新的BF16数字格式。

现在,用于“深度学习增强”(DLBoost)的AVX-512指令集也支持全新的BF16数据类型。

过去,英特尔在CPU上的AI训练主推INT8整数格式,在精度要求不高的模型中,使用INT8还是可以的。但是许多高精度模型需要使用FP32浮点数格式。

新一代的至强CPU加入了对16位浮点数支持,不过此16位浮点并非常见的FP16,而是英特尔称之为bfloat16(BF16)的格式。

BF16将FP32模型的位宽减少一半,除了加速处理速度外,更重要的是,它将模型保留在内存中所需的空间减少了一半。

△图片来自AnandTech

BF16可以执行许多通常在FP32或FP16中实现的AI任务,它只是比FP32的范围稍低,但是却能有与FP16几乎相同的吞吐量。

国内的阿里云、腾讯云都已经在其数据集上使用了支持BF16的CPU,实现了1.6倍左右的吞吐量加速和1.8倍左右的推理加速。

英特尔还对CooperLake处理器之间的互连进行了升级。

至强处理器使用超路径互连(UPI)将多个CPU连接在一起。在CooperLake中,每个CPU到CPU的连接现在都包含两个UPI链接,链接速度达到了20.8GT/s。

傲腾SSD和StratixFPGA

英特尔还宣布了新一代的傲腾(Optane)“持久内存”200系列,带宽相比前代提升了25%。

200系列傲腾提供128GB、256GB和512GB三个不同存储容量,并且将以与DDR4-2666内存相同的速度运行。

该系列为每个插槽提供高达4.5TB的内存支持,以更好地处理数据密集型的AI工作负载。

最后,英特尔发布了Stratix10NXFPGA,这是英特尔第一个针对AI优化的FPGA。

Stratix10NXFPGA加入了为AI设计的张量模块,在INT8数据类型上,相比现在的Stratix10MXFPGA带来了15倍的运算加速。

参考链接:

https://www.anandtech.com/show/15862/intel-launches-cooper-lake-3rd-generation-xeon-scalable-for-4p8p-servers

作者系网易新闻·网易号“各有态度”签约作者

—完—

「数据库」系列公开课开启,快来免费报名!

6月23号第二期直播,浪潮信息数据库产品线总经理--乔鑫分享「传统企业互联网下的数据平台升级」,将讲述HTAP数据库的技术原理、优化方案以及开发部署概要等技术问题,以此带给广泛关注者一些前瞻指导。

扫码报名,可加入直播交流群,还可获取系列课程直播回放、分享PPT:

量子位QbitAI·头条号签约作者

վᴗի追踪AI技术和产品新动态

喜欢就点「在看」吧!