芯原推出新一代神经处理单元IP VIP9000

demi的头像
demi 发布于:周三, 08/07/2019 - 09:54 ,关键词:

有助于解决系统级瓶颈问题,提升人工智能解决方案效率

芯片设计平台即服务(SiPaaS®)公司芯原(VeriSilicon)今日宣布推出VIP9000,这是一款高度可扩展、可编程的计算机视觉和人工智能处理器。Vivante VIP系列的专利神经网络(NN)引擎和张量处理架构(Tensor Processing Fabric)技术提供卓越的神经网络推理性能,具有业界领先的能耗效率(TOPS/W)和面积效率(平方毫米/瓦),可扩展的计算能力范围从0.5TOPS( 每秒万亿次运算)到几百TOPS。

VIP9000采用Vivante最新的VIP V8 NPU架构。芯原执行副总裁兼IP事业部总经理戴伟进表示,VIP V8架构提高了数据分配的灵活性和处理核心的可配置性,可适应现代神经网络(例如1x1、Nx1、1xN、depth wise)中的各种滤波器(filter)形状和大小。VIP9000通过基于设计选择(INT8、INT16、Float16、Bfloat16)的不同数据格式实现神经网络推理。VIP9000还能以原生方式支持混合量化(将神经网络操作之间的数据格式相混合)。

戴伟进表示:“神经网络技术正不断发展和演进,在计算机视觉、超分辨率像素处理以及音频和语音处理方面有着大量而全面的应用。短短几年内,已有超过25家公司获得了VIP技术的独立授权,并在多种应用中使用了这一技术,包括可穿戴设备和物联网(IoT)设备、网络摄像机、监控摄像头、智能家居和电器、移动电话、笔记本电脑、汽车(高级驾驶辅助系统(ADAS)、自动驾驶)和边缘服务器等,充分证明了这些产品和技术的需求。”

与视觉,语音,图像处理或AIoT相关的行业领域和公司将受益于VIP9000。对于智能家居和AIoT应用,VIP9000提供多款高度优化的高精度识别引擎。

该版本包含以下新功能:

  •   更灵活的数据分配器和处理核心配置器:在现代神经网络模型中为各种滤波器形状和大小带来高MAC利用率;

  •   Bfloat16新数据格式支持:除现有的INT8、INT16和Float16支持之外,Bfloat16还为AI训练提供更高的精度;

  •   FLEXA API支持:一种软硬件协议,可在多个像素处理IP块之间实现高效数据通信。搭载芯原ISP、视频编解码器(CODEC)、NPU或符合FLEXA API的第三方IP的系统可以运行AI应用,减少DDR流量和低像素处理延迟,适用于通过多IPS运行的应用程序;

  •   为加速常用AI应用程序而设计的任务专用引擎:支持人脸检测、人脸识别、人脸特征点检测、对象检测和AI语音。得益于VIP9000的原生多任务、多场景支持,一个或多个引擎可在VIP9000内与用户定义的AI程序并行运行。

VIP9000支持所有热门的深度学习框架(TensorFlow、Pytorch、TensorFlow Lite、Caffe、Caffe2、DarkNet、ONNX、NNEF、Keras等)以及OpenCL和OpenVX等编程API。此外,VIP9000架构还能以原生方式支持神经网络优化技术,例如量化、修剪和模型压缩。通过Vivante ACUITYTM SDK的离线转换,或者通过Android NN、NN API或ARM NN的在线解释,AI应用程序可轻松移植到VIP9000平台。

戴伟进表示:“我们很自豪成为市场领导者,恩智浦(NXP)和博通(Broadcom)采用我们的技术、SiPaaS平台、原始设备制造商(OEM)和供应商关系来推动进一步发展。我们的被授权方已经将Vivante NPU整合到超过50个系统级芯片(SoC)设计中,在充满竞争的市场中充分验证了我们的想法和技术。”

Jon Peddie Research总裁Jon Peddie博士表示,计算机行业自PC诞生以来最重要的发明就是人工智能和机器学习。 “它将彻底改变我们的生活。它可以在IBM和Google的巨型机器中实现,也可以在使用芯原神经网络处理器制造的微型芯片中实现。到2020年,如果没有我们的AI助手,很难想象我们将如何生活。”

围观 182