首页 科技 > 正文

一起来看看英特尔如何发挥AI处理能力

很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于一起来看看英特尔如何发挥AI处理能力的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对一起来看看英特尔如何发挥AI处理能力这篇文章感兴趣的小伙伴可以一起来看看

云和数据中心架构师正在追寻新方法,以将更多的人工智能功能整合到已经有限的空间中,他们将希翼仔细研究英特尔的新型Nervana神经网络处理器。根据应用的不同,处理器可以提供四倍的性能或五分之一的功耗,这是市售的替代产品。 一起来看看英特尔如何发挥AI处理能力

新处理器是英特尔针对深度学习工作负载量身定制的首批ASIC产品。该公司上周宣布,处理器现在开始出货。

除了用于训练的NNP-T1000和用于推理的NNP-I1000之外,英特尔还宣布了下一代Movidius无数视觉处理单元,该单元专门用于边缘的AI视觉和推理处理。代号为Keem Bay的ASIC计划于明年上半年上市。

ASIC是半导体行业对新兴的,快速增长的,性能要求极高的AI处理市场的必定反应,到目前为止,该市场在很大程度上已经得到了通用处理器的支持,如英特尔的Xeon和GPU(如环绕Nvidia的Tesla和GPU)。图灵架构。 一起来看看英特尔如何发挥AI处理能力

实际上,由于云和数据中心的高度并行性,通常将其部署在GPU上进行训练,而CPU则具有出色的可编程性和灵便的内存寻址功能,因此可以在CPU上进行推理。但是,对每平方英寸性能的不满足要求导致了新的,更优化的解决方案。

硬件决策者越来越多地寻求Xilinx和Intel等公司的现场可编程门阵列或FPGA,它们是四年前通过收购Altera进入市场的。FPGA可以为特定的工作负载量身定制电路,因此有潜力提供更高效的性能。尽管具有性能优势,但FPGA的起步速度并不快,因为与CPU或GPU相比,FPGA相对较难使用,灵便性较低且价格昂贵。 一起来看看英特尔如何发挥AI处理能力

ASIC代表了AI处理过程中的下一个转折点,因为它们比其他替代方案更高效,更具成本效益。实际上,Google已经部署了自己内部设计的ASIC(称为Tensor处理单元,即TPU),专门用于处理深度学习工作负载。英特尔的新型NNP可能是主要供应商针对云和数据中心应用开放市场的首批AI专用ASIC。

NNP可以在相同的空间中以更低的功耗带来更多的AI性能,而NNP可以使Intel在数据中心和云中的深度学习计算方面大有作为。实际上,数据中心OEM告诉我,他们已经对想要测试评估NNP板和系统的客户产生了很多兴趣。

固然,我们无法保证所有的轮胎踢都将转变为市场的全面转变。待确定的是软件开辟生态系统将如何响应,以使开辟人员可以轻松利用新处理器的深度学习功能。确实,英伟达的CUDA开辟平台可能是英特尔扩大其在AI领域的最大障碍,因为CUDA被如此广泛地采纳。

为此,英特尔正在大力投资自己的生态系统,以期吸引开辟人员。实际上,在上周的AI活动中,英特尔推出了AI DevCloud for Edge,这是一个用于构建和测试AI系统的云托管平台。除了AI DevCloud,英特尔还提供了用于视觉应用程序的OpenVINO工具包,以及马上推出的oneAPI计划,旨在跨英特尔的所有硬件AI架构进行开辟。

那将派上用场。除了新的NNP和VPU ASIC外,英特尔还于周日披露了其首个为数据中心设计的GPU架构,比Supercomputing 2019早于今天在丹佛开始。基于马上到来的GPU架构的主板称为Ponte Vecchio,将于2021年上市。

凭借其现有的CPU和FPGA产品,这些新增功能将为英特尔提供最多样化的AI处理选项集。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。