TensorRT 4 开发者手册 中文版 (三-1)

# 原创作品,转载时请务必以超链接形式标明文章原始出处: http://www.dapalm.com/?p=191,作者:<a href="http://DaPalm.com" target="_blank">大数据,怕了么?

本手册为TensorRT 4.0.1.6 GA版英文手册翻译而来,博主英文水平一般般,主要作为备忘所用,分享出来以供更多开发者使用。TensorRT Developer Guide手册一共分为四个章节,主要内容在第二、三章,看懂这两章,写代码够用了。第一章为TensorRT综述,就是自吹有多牛逼。第四章为示例,介绍demo的代码结构及功能。开篇是目录,前三章每章为两到三篇,最后第四章示例,会拆分几个关键示例进行详细说明。

第一章 什么是TensorRT?

1.1 TensorRT优势

1.2 TensorRT适用场景

1.3 TensorRT如何工作

1.4 API概述

1.5 获取TensorRT

第二章 TensorRT任务

2.1 C++初始化TensorRT

2.2 C++创建网络定义

    2.2.1C++使用解析器导入模型

    2.2.2使用C++解析器API导入Caffe模型

    2.2.3使用C++ UFF解析器API导入TensorFlow模型

    2.2.4使用C++解析器API导入ONNX模型

2.3 使用C++ API创建网络

2.4 C++构建推理引擎

2.5C++序列化模型

2.6C++执行推理

2.7C++内存管理

2.8Python初始化TensorRT

2.9Python创建网络定义

    2.9.1Python使用解析器导入模型

    2.9.2使用Python导入Caffe模型

    2.9.3使用Python导入TensorFlow模型

    2.9.4使用Python导入ONNX模型

    2.9.5使用Python导入Pytorch和其他框架模型

2.10 使用Python API 创建网络

2.11 Python构建推理引擎

2.12 Python序列化模型

2.13 Python执行推理

2.14通过自定义层拓展TensorRT

    2.14.1使用C++API添加自定义层

    2.14.2从框架中导入模型时使用自定义层

2.15混合精度工作模式

    2.15.1使用C++使能FP16推理

    2.15.2使用Python使能FP16推理

    2.15.3 使用C++ API 优化INT8校准

   2.15.4 使用Python优化INT8校准

2.16部署TensorRT优化模型

    2.16.1部署云

    2.16.2 部署嵌入式系统

第三章 使用深度学习框架

3.1 支持的算子

3.2 使用TensorFlow

    3.2.1 冻结TensorFlow图

    3.2.2 冻结Keras模型

    3.2.3转换冻结图到UFF(通用框架格式)

    3.2.4使用TensorFlow RNN权重

        3.2.4.1 TensorRT支持的TensorFlow RNN Cell

        3.2.4.2 维护TensorFlow和TensorRT模型权重一致性

        3.2.4.3工作流程

        3.2.4.4转储TensorFlow权重

        3.2.4.5 加载转储的权值

        3.2.4.6 转换权重到TensorRT格式

        3.2.4.7 BasicLSTMCell例子

        3.2.4.8设置转换的权值和偏置

3.3 使用Pytorch和其他框架

3.4 使用TensorRT Lite引擎

    3.4.1运行推理

    3.4.2预处理和后处理函数表

第四章 示例

猜你喜欢

转载自blog.csdn.net/hw5226349/article/details/81530666