您的位置: 首页 >科技 >

Hot Chips活动详细介绍了AI强度处理器

2019-08-26 17:06:55 编辑: 来源:
导读 本周,技术观察人员在英特尔获得了令人印象深刻的AI加速器工作,即Hot Chips 2019活动的启示,其中英特尔展示了其Nervana神经网络处理器

本周,技术观察人员在英特尔获得了令人印象深刻的AI加速器工作,即Hot Chips 2019活动的启示,其中英特尔展示了其Nervana神经网络处理器的细节,(1)用于培训的NNP-T和(2)NNP-I推断。

让我们首先重新审视推断(Spring Hill)的工作,以及NNP-1,它是在以色列海法的工厂开发的。NNP-1代表用于推理的神经网络处理器。

路透社的Steven Scheer说,它的构造将允许它“ 使用最少的能量来应对高工作负荷 ”。

TNW的 Ravie Lakshmananin描述了它的功能,称其“专门针对人工智能的推理方面推断出新的见解。通过使用专用的AI推理计算引擎,NNP-I以更低的功率提供更高的性能。”

Nervana这个名字来自哪里?Nervana Systems是它在2016年收购的公司。当时,分析师Karl Freund告诉EE Times,英特尔这样做很有意义。收购Nervana是进入深度学习市场的一种方式。

本周,为什么这个问题变成了原因 - 不是英特尔发言人。

“为了实现'AI无处不在'的未来情况,我们必须处理大量的数据生成,并确保组织具备了有效利用数据所需的资源,并在收集数据时对其进行处理,” 在路透社的一份报告中,Nervana的创始人,现任英特尔人工智能产品集团总经理Naveen Rao 说。“这些计算机需要加速复杂的AI应用程序。”

包括SiliconANGLE在内的技术观察人士表示,NNP-1适用于运行AI工作负载的大型数据中心。Fossbytes表示,一套全面的RAS功能可确保它可以轻松部署到现有数据中心。

乔尔Hruska的在ExtremeTech来:“英特尔声称NNP,我可以提供的每3600个推论ResNet50性能第二在10W TDP运行时工程以4.8 TOPS /瓦,符合英特尔的整体效率目标(该公司声称,NNP-。我在低瓦数时效率最高。)“

2019年Hot Chips会议的另一个感兴趣的项目是NNP-T,它代表英特尔Nervana神经网络训练处理器。英特尔将NNP-T(代号为Spring Crest)描述为专用(1),以大规模训练复杂的深度学习模型,(2)通过开箱即用的横向扩展支持简化分布式培训。

汤姆硬件公司的 Paul Alcorn 写道,“NNP-T的设计是如何从机箱到机箱无缝扩展,甚至机架到机架,无需交换机。” 他说,网络是专为高带宽和低延迟而设计的; 反过来,该架构将处理“大规模模型,可扩展到5或80亿个或更多参数。”

Naveen Rao评论道:“英特尔Nervana NNP-T推动了深度学习培训的界限。它旨在优先考虑两个关键的现实考虑:如何尽快培训网络以及如何在给定的功率预算内完成。” 该体系结构是从头开始构建的,没有遗留的工作负载可供支持。

从更大的角度来看,“以色列时报”称“英特尔,Nvidia,高通,谷歌等公司以及全球各地的创业公司都在寻找这一领域的新技术,其中包括创造硬件以实现巨大的处理能力。信息量。“

Shoshanna Solomon写道:处理硬件有两个目的:(1)训练计算机完成新任务;(2)教他们推断并从而获得见解。

总而言之,英特尔正在努力使数据科学家能够在处理非结构化和复杂数据时做到这两点。


免责声明:本文由用户上传,如有侵权请联系删除!

最新文章

精彩推荐

图文推荐

点击排行

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ   备案号:

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。

邮箱:toplearningteam#gmail.com (请将#换成@)