Nnp,dlboost和keem bay,用于IA和神经网络的新型英特尔芯片
目录:
英特尔在11月12日举行的AI峰会上宣布了新的专用硬件,该产品已远离大众市场, NNP,DLBoost和Keem Bay。 自从2016年下半年收购Movidius和Nervana以及由Nervana联合创始人Naveen Rao领导的AI产品集团成立以来,这些产品无疑是三年多工作的结晶。
NNP,DLBoost和Keem Bay,用于AI和神经网络的新型英特尔芯片
Rao指出,英特尔已经在AI领域扮演重要角色,其AI收入在2019年将超过35亿美元 ,高于2017年的10亿美元。英特尔已经拥有适用于所有人的不同硬件。用于IOt,Agilex FPGA,PC上的Ice Lake,Cascade Lake的DLBoost的OpenVINO前沿,以及未来的离散图形。
处理器:DLBoost
英特尔在Cooper Lake 56内核上展示了与bfloat16的兼容性,该内核将于明年发布,作为其处理器中DLBoost AI功能的一部分 。 Bfloat16是一种数字格式,其精度与AI训练中的单精度浮点(FP32)相似。
英特尔没有提供性能提升的估计,但它确实指出,出于推论目的,库珀湖比Skylake-SP快30倍。 在PC端,Ice Lake包含了与Cascade Lake中相同的DLBoost AVX-512_VNNI指令。
Movidius:Keem Bay VPU
作为其人工智能战略(例如智能相机,机器人,无人机和VR / AR)的一部分,英特尔于2016年收购了Movidius 。 Movidius称其低功耗芯片为“视觉处理单元”(VPU)。 它们具有图像信号处理(ISP)功能,硬件加速器,MIPS处理器和称为SHAVE内核的128位可编程矢量处理器(VLIW)。
访问我们关于市场上最佳处理器的指南
英特尔现在详细介绍了代号为Keem Bay的所谓“第三代”英特尔Movidius VPU。 据英特尔称,它的推理性能是Myriad X的十倍以上,并且消耗的能量相同。
Nervana神经网络处理器(NNP)
英特尔拥有用于训练和深度神经网络推理的NNP。 英特尔的NNP-I推理基于两个Ice Lake Sunny Cove内核和十二个ICE加速器内核。 英特尔声称它将提供出色的每瓦性能和计算密度。 如先前宣布的那样,在其M.2尺寸中,它在12W时能够达到50 TOPS,相当于4.8TOPS /W。 英特尔透露,PCIe卡的外形尺寸消耗75W,并产生高达170 TOPS(具有INT8精度)。
英特尔重申其32卡的近线性缩放效率高达95%,而Nvidia为73%。
英特尔为AI,5G,神经网络,自动驾驶等各个领域准备了各种各样的芯片,该市场今年的收入估计为100亿美元。 我们会及时通知您。
Tomshardware字体华擎科技及其新的Q1900TM-ITX Bay Trail供电迷你板
ASROCK的新型Q1900TM-ITX Bay Trail-Powered Mini-ITX主板已开始销售。 在质量/价格方面有很好的论据。