NVIDIA发布TensorRT4 加速常见推理应用

2018-07-01    来源:IT运维网

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

在计算机视觉与模式识别(CVPR)大会上,NVIDIA发布了TensorRT 4,它能够加速常见推理应用,如神经机器翻译、推荐系统和语音。用户还可通过ONNX格式轻松地从常见的深度学习框架(如Caffe 2、Chainer、MxNet、Microsoft Cognitive Toolkit和PyTorch)导入模型。

TensorRT特性包括:

·借助针对多层感知器(MLP)和递归神经网络(RNN)的新层,吞吐量高达CPU45

·对于TensorRT中使用ONNX解析器导入的ONNX模型,在Tesla V100 GPU上的推理性能相当于仅使用CPU50

·支持面向自动驾驶汽车的AI计算平台NVIDIA DRIVE Xavier

·借助用于在Volta Tensor Core上运行的APIFP16自定义图层可实现3倍的推理加速

其他功能包括可使用FP16精度执行自定义神经网络层,以及通过NVIDIA DRIVE AI平台支持Xavier SoC。

即刻下载TensorRT 4

TensorRT 4面向NVIDIA Registered Developer Program的所有成员开放,可在TensorRT产品页面免费下载。TensorRT 4这一版本意义重大,提供了许多面向新用例和应用领域的功能。预计在未来发布的新版本中,面向新应用领域的功能将继续得以强化。

访问NVIDIA TensorRT开发者论坛,了解更多。

标签: 开发者 网络

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:聚焦NB-IoT 安富利亮相2018 MWC-上海

下一篇:智能自动化DDoS防御