NVIDIA TensorRT:可编程推理加速器
NVIDIA TensorRT:可编程推理加速器
一.概述
NVIDIA TensorRT是一个用于高性能深度学习推理的SDK。它包括一个深度学习推理优化器和运行时间,为深度学习推理应用程序提供低延迟和高吞吐量。
在推理过程中,基于TensorRT的应用程序执行速度比仅限CPU的平台快40倍。使用TensorRT,可以优化在所有主要框架中训练的神经网络模型,以高精度校准较低精度,最后部署到高规模数据中心、嵌入式或汽车产品平台。
TensorRT建立在NVIDIA的并行编程模型CUDA的基础上,使能够利用CUDA-X中的库、开发工具和技术,为人工智能、自动化机器、高性能计算和图形优化所有深度学习框架的推理。 TensorRT为深度学习推理应用程序(如视频流、语音识别、推荐和自然语言处理)的生产部署提供INT8和FP16优化。减少的精确推理显著减少了应用程序延迟,这是许多实时服务、自动和嵌入式应用程序的要求。
可以将每个深度学习框架中经过训练的模型导入TensorRT。在应用优化后,TensorRT选择特定于平台的内核,以在数据中心的Tesla gpu、Jetson嵌入式平台和NVIDIA驱动自主驾驶平台上实现性能最大化。
使用TensorRT,开发人员可以专注于创建新的人工智能应用程序,而不是为推理部署进行性能调整。

二.tensorRT开源代码
链接地址:https://github.com/NVIDIA/TensorRT
TensorRT Open Source Software
此存储库包含NVIDIA TensorRT的开源软件(OSS)组件。包括TensorRT插件和解析器(Caffe和ONNX)的源代码,以及演示TensorRT平台的使用和功能的示例应用程序。
Prerequisites
要构建TensorRT OSS组件,请确保满足以下包要求:
System Packages
- CUDA
- GNU Make >= v4.1
- CMake >= v3.13
- Python
- PIP >= v19.0
- Essential libraries and utilities
- Jetson平台的交叉编译需要安装JetPack的主机组件
- Git, pkg-config, Wget, Zlib
- JetPack >= 4.2
Optional Packages
- Containerized builds
- Code formatting tools
- Docker >= 1.12
- NVIDIA Docker >= 2.0
TensorRT Release
- TensorRT v7.0
注意:除了TensorRT OSS组件外,还将下载以下源包,不需要在系统上安装。
ONNX-TensorRT v7.0
三.Availability
TensorRT可从TensorRT产品页免费向NVIDIA开发人员程序的成员提供,以进行开发和部署。最新版本的插件、解析器和示例也可以从TensorRT github存储库中以开源方式获得。开发人员还可以从NGC容器注册中心在TensorRT容器中获取TensorRT。TensorRT包括在:
NVIDIA Deepstream SDK,用于计算机视觉和智能视频分析(IVA)应用程序中的实时流分析。
NVIDIA DRIVE用于NVIDIA DRIVE PX2自主驾驶平台的安装。
NVIDIA Jetpack for Jetson TX1、TX2嵌入式平台。
NVIDIA TensorRT:可编程推理加速器的更多相关文章
- NVIDIA TensorRT高性能深度学习推理
NVIDIA TensorRT高性能深度学习推理 NVIDIA TensorRT 是用于高性能深度学习推理的 SDK.此 SDK 包含深度学习推理优化器和运行时环境,可为深度学习推理应用提供低延迟和高 ...
- NVIDIA TensorRT 让您的人工智能更快!
NVIDIA TensorRT 让您的人工智能更快! 英伟达TensorRT™是一种高性能深度学习推理优化器和运行时提供低延迟和高通量的深度学习推理的应用程序.使用TensorRT,您可以优化神经网络 ...
- 基于TensorRT车辆实时推理优化
基于TensorRT车辆实时推理优化 Optimizing NVIDIA TensorRT Conversion for Real-time Inference on Autonomous Vehic ...
- Nvidia TensorRT开源软件
TensorRT开源软件 此存储库包含NVIDIA TensorRT的开源软件(OSS)组件.其中包括TensorRT插件和解析器(Caffe和ONNX)的源代码,以及演示TensorRT平台使用和功 ...
- NVIDIA® TensorRT™ supports different data formats
NVIDIA TensorRT supports different data formats NVIDIATensorRT公司 支持不同的数据格式.需要考虑两个方面:数据类型和布局. ...
- TensorRT简介-转载
前言 NVIDIA TensorRT是一种高性能神经网络推理(Inference)引擎,用于在生产环境中部署深度学习应用程序,应用有 图像分类.分割和目标检测等,可提供最大的推理吞吐量和效率.Tens ...
- 初见-TensorRT简介<转>
下面是TensorRT的介绍,也可以参考官方文档,更权威一些:https://developer.nvidia.com/tensorrt 关于TensorRT首先要清楚以下几点: 1. TensorR ...
- TensorRT加速 ——NVIDIA终端AI芯片加速用,可以直接利用caffe或TensorFlow生成的模型来predict(inference)
官网:https://developer.nvidia.com/tensorrt 作用:NVIDIA TensorRT™ is a high-performance deep learning inf ...
- 基于TensorRT 3的自动驾驶快速INT8推理
基于TensorRT 3的自动驾驶快速INT8推理 Fast INT8 Inference for Autonomous Vehicles with TensorRT 3 自主驾驶需要安全性,需要一种 ...
随机推荐
- Think5之删除单条数据功能
//删除单条学员信息 public function deleteStu(Request $request){ $stu_id = $request->param('id'); $result ...
- 【SpringMVC配置失效】Springboot2.x拦截器配置不无生效
一.环境 maven springboot版本2.x <parent> <groupId>org.springframework.boot</groupId> &l ...
- 从苏宁电器到卡巴斯基第16篇:我在苏宁电器当营业员 VIII
其实不想走,其实很想留 我在之前的故事中说过,在大四的时候,我其实是想考研的,但是看了一段时间的书以后,发现自己实在不是那块料,主要是数学实在是学不明白,那么也就只能作罢了.而后来面试中石化的时候,尽 ...
- hdu 3721 树的最小直径
题意: 给你一棵树,让你改变一条边,改变之后依然是一棵树,然后问你怎样改变才能让树的直径最短.这里的改变一条边指的是指把一条边长度不变,连在别的两个点上. 思路: 首先求出树的 ...
- 一个不错的过TP思路,转载CSDN
也许大家也是研究腾讯游戏的爱好者,对腾讯的游戏都有过这样的体会 例如OD与CE无法进行如以下操作: 无法附加进程, 无法打开进程, 游戏进程被隐藏无法在工具中查看到,内存无法读取代码 内存修改后游 ...
- 简单写个logictic回归
最近做华为软件精英挑战赛热身赛,给出的demo是使用logistic做的金融风控,比赛要求很严格,如果使用Python 进行训练那么不能使用任何第三方机器学习库,只能使用Python和原生numpy1 ...
- 解决GET http://localhost:8080/js/layui/layui.js net::ERR_ABORTED 404
用ssm+layui在写页面的时候,发现无法找到资源路径 <script src="js/layui/layui.js" charset="utf-8"& ...
- OO_Unit1_表达式求导
CSDN链接 一.第一次作业 1.需求分析 简单多项式导函数 带符号整数 支持前导0的带符号整数,符号可省略,如: +02.-16.19260817等. 幂函数 一般形式 由自变量x和指数组成,指数为 ...
- 浙江省第三届大学生网络与信息安全竞赛WP
title: 浙江省第三届大学生网络与信息安全预赛WP date: 2020-10-2 tags: CTF,比赛 categories: CTF 比赛 浙江省第三届大学生网络与信息安全竞赛WP 0x0 ...
- [bug] NameNode无法启动 invalid-uri-for-namenode-address
配置文件core-site.xml中设置有误 <property> <name>fs.defaultFS</name>(NameNode地址) <value& ...