- A large number of cuda/tensorrt cases
- 在这个project中,提供大量的cuda和tensorrt学习案例
- cuda驱动api
- cuda运行时api
- tensorRT基础入门
- 基本的tensorRT学习
- 插件、onnx解析器
- tensorRT高阶应用
- 导出onnx,前后处理
- 具体项目为案例,掌握如何处理复杂情况
- CUDADriver、CUDARuntime、WarpAffine、cublas、Kernel、Stream、SharedMemory、Atomic
- YoloV5、YoloX、TensorRT-Plugin、TensorRT-ONNXParser
- YoloV5-OBB(旋转框)、AlphaPose(姿态检测)、InsightFace(人脸识别)、UNet(场景分割)、RetinaFace(人脸检测)
- HuggingFace-NER(NLP命名实体识别)、RoBERTa(中文文本分类)
- mmdetection(导出其中的yolox)
- self-driving(自动驾驶中部分感知技术)
- ONNX-Runtime、OpenVINO,RKNN,不同的CPU推理引擎
- LUA、PyBind11、HTTP-Server,不同的脚本语言调用封装
- Lane车道线检测、Ldrn单目深度估计、Road行驶区域分割
- 大量案例,从基础的cuda驱动api、运行时api到tensorrt的基础入门、tensorrt的高级进阶
- 模型的导出、模型的前后处理等等,多线程的封装等等
- 希望能够帮助你进一步掌握tensorRT
- 案例均使用makefile作为编译工具
- 在其中以
${@CUDA_HOME}
此类带有@符号表示为特殊变量 - 替换此类特殊变量为你系统真实环境,即可顺利使用
- 在其中以
- 大部分时候,配置完毕后,可以通过
make run
实现编译运行
- 要求linux-ubuntu16.04以上系统,并配有GPU和显卡驱动大于495最佳
- 安装python包,
pip install trtpy -U -i https://pypi.org/simple
- 配置快捷方式,
echo alias trtpy=\"python -m trtpy\" >> ~/.bashrc
- 应用快捷方式:
source ~/.bashrc
- 配置key:
trtpy set-key sxaikiwik
- 获取并配置环境:
trtpy get-env --cuda=11
- 目前仅支持10和11,如果驱动版本不适配,会提示找不到适配的版本
- 自动改变配置变量:
trtpy prep-vars .
,把当前目录下的所有变量都自行替换 - 即可运行
make run
- TensorRT的B站视频讲解:https://www.bilibili.com/video/BV1Xw411f7FW
- 官方的视频讲解:https://www.bilibili.com/video/BV15Y4y1W73E
- trtpy前期介绍文档:https://zhuanlan.zhihu.com/p/462980738
- 本源代码对应配套的视频教程讲解(腾讯课堂):https://ke.qq.com/course/4993141