处理器

Nnp,dlboost和keem bay,用于IA和神经网络的新型英特尔芯片

目录:

Anonim

英特尔在11月12日举行的AI峰会上宣布了新的专用硬件,该产品已远离大众市场, NNP,DLBoost和Keem Bay。 自从2016年下半年收购Movidius和Nervana以及由Nervana联合创始人Naveen Rao领导的AI产品集团成立以来,这些产品无疑是三年多工作的结晶。

NNP,DLBoost和Keem Bay,用于AI和神经网络的新型英特尔芯片

Rao指出,英特尔已经在AI领域扮演重要角色,其AI收入在2019年将超过35亿美元 ,高于2017年的10亿美元。英特尔已经拥有适用于所有人的不同硬件。用于IOt,Agilex FPGA,PC上的Ice Lake,Cascade Lake的DLBoost的OpenVINO前沿,以及未来的离散图形。

处理器:DLBoost

英特尔在Cooper Lake 56内核上展示了与bfloat16的兼容性,该内核将于明年发布,作为其处理器中DLBoost AI功能的一部分 。 Bfloat16是一种数字格式,其精度与AI训练中的单精度浮点(FP32)相似。

英特尔没有提供性能提升的估计,但它确实指出,出于推论目的,库珀湖比Skylake-SP快30倍。 在PC端,Ice Lake包含了与Cascade Lake中相同的DLBoost AVX-512_VNNI指令。

Movidius:Keem Bay VPU

作为其人工智能战略(例如智能相机,机器人,无人机和VR / AR)的一部分,英特尔于2016年收购了Movidius 。 Movidius称其低功耗芯片为“视觉处理单元”(VPU)。 它们具有图像信号处理(ISP)功能,硬件加速器,MIPS处理器和称为SHAVE内核的128位可编程矢量处理器(VLIW)。

访问我们关于市场上最佳处理器的指南

英特尔现在详细介绍了代号为Keem Bay的所谓“第三代”英特尔Movidius VPU。 据英特尔称,它的推理性能是Myriad X的十倍以上,并且消耗的能量相同。

Nervana神经网络处理器(NNP)

英特尔拥有用于训练和深度神经网络推理的NNP。 英特尔的NNP-I推理基于两个Ice Lake Sunny Cove内核和十二个ICE加速器内核。 英特尔声称它将提供出色的每瓦性能和计算密度。 如先前宣布的那样,在其M.2尺寸中,它在12W时能够达到50 TOPS,相当于4.8TOPS /W。 英特尔透露,PCIe卡的外形尺寸消耗75W,并产生高达170 TOPS(具有INT8精度)。

英特尔重申其32卡的近线性缩放效率高达95%,而Nvidia为73%。

英特尔为AI,5G,神经网络,自动驾驶等各个领域准备了各种各样的芯片,该市场今年的收入估计为100亿美元。 我们会及时通知您。

Tomshardware字体

处理器

编辑的选择

Back to top button