回答

收藏

英特尔神经计算棒2

#板卡评测 #板卡评测 1040 人阅读 | 0 人回复 | 2019-02-01

Intel?二代神经计算棒由Intel? Movidius? X VPU提供支持,可提供业界领先的性能、功率和功耗。该神经计算棒支持OpenVINO?,这是一款可加快解决方案开发并简化部署的工具包。二代神经计算棒简单易用,可即插即用,并支持常用框架和开箱即用的示例应用程序。可以使用具有USB端口的任何平台进行原型设计和操作,而不必依赖云计算。Intel NCS 2可实现每秒4万亿次运算,与前几代产品相比,性能提升了8倍。

FEATURES提高了生产率
           
  • 具有低成本的多功能硬件处理能力,缩短了对神经网络进行原型设计或调整的时间        
  • 与最初的Intel Movidius神经计算棒相比,增强了硬件处理能力        
  • 利用16核而非12核,外加神经计算引擎、专用的深度神经网络加速器        
  • 利用深度神经网络推理实现性能提升高达8倍,具体取决于网络        
  • 经济划算,加快了深度神经网络的应用速度        
  • 提升了AI开发套件体验        
  • 简单易用,可即插即用        
  • 价格合理        
  • 支持常用框架,包括开箱即用和快速开发
探索效率
           
  • 卓越的每瓦性能将机器视觉提升到全新级别        
  • “在边缘”运行,不依赖云计算连接        
  • 现可在笔记本电脑、单板计算机或任何带USB端口的平台上进行深度学习原型设计        
  • 价格合理 — 具有每瓦性能更高的和高效无风扇设计的优势        
  • 将Intel? Movidius? Myriad? X VPU和Intel? Distribution of OpenVINO工具套件的硬件优化性能相结合,加快深度神经网络应用的速度        
  • 在同类产品中首次采用神经计算引擎 — 一款专用硬件加速器        
  • Intel Movidius Myriad X VPU将16个强大的处理内核(称为SHAVE内核)和超高吞吐量智能内存结构相结合,成为移动应用型深度神经网络和计算机视觉应用的行业领导者        
  • 在芯片上采用全新的深度神经网络 (DNN) 推理引擎
更简单的多功能性,适用于原型设计?
           
  • Intel Distribution of OpenVINO工具套件简化了开发体验        
  • 利用Intel二代神经计算棒进行原型设计,然后将您的深度神经网络部署到基于Intel Movidius Myriad X VPU的嵌入式设备上        
  • 简化了工作原型设计的路径        
  • 跨Intel硬件扩展工作负载并最大限度提高性能        
  • 借助强大的Intel Distribution of OpenVINO工具套件,可以简化模拟人类视觉的应用和解决方案的移植及部署        
  • Intel Distribution of OpenVINO工具套件简化了多平台计算机视觉解决方案的开发 — 提高了深度学习性能        
  • 现在,可以更加轻松地通过Intel加速技术套件开发异构执行应用。开发一次即可部署在Intel CPU、VPU、集成显卡或FPGA上。        
  • 用户可以在需要时实施自己的自定义层并在CPU上执行这些层,而模型的其余部分则在VPU上运行

Intel 二代神经计算棒(用户手册).pdf

505.48 KB, 下载次数: 0

分享到:
回复

使用道具 举报

您需要登录后才可以回帖 注册/登录

本版积分规则

关闭

站长推荐上一条 /3 下一条