1. Offizielle Website
URL-Name | Einführung |
---|---|
Tensort-Unterstützungsmatrix | Von TensorRT unterstützte Hardware- und Anwendungsdetails |
TensorRT-Chinesisch-Tutorial | Chinesisches Tutorial, teilweise übersetzt |
Offizielle chinesische TensorRT-Dokumentation | Offizielles chinesisches Dokument, achten Sie auf die Versionsnummer |
NVIDIA-AI-IOT/Torch2trt | Die Python-Version des Pytorch-Modells verwendet die TensorRT-Methode |
NVIDIA-AI-IOT/tf_trt_models | So verwenden Sie die Python-Version von Tensorflow+TensorRT |
Offizieller FasterRCNN-Github | TensorRT wird mit dem Github der C++-Version des FasterRCNN-Beispiels geliefert. Weitere Beispiele finden Sie im übergeordneten Verzeichnis |
TensorRT integriert mit Tensorflow | Tensorflow integriert offiziell TensorRT, offiziellen Blog |
Jetson+TRT-Schlussfolgerung | TensorRT + NVIDIA Jetson Inferenzdokumentation |
Jetson_Zoo | Einige Modelle und Verwendungen mit TensorRT auf Jeston |
2. Nützliche Blogs
URL-Name | Einführung |
---|---|
TensorRT+Ubuntu-Installation | Ein TRT+Ubuntu-Installations-Tutorial |
TensorRT+MaskRCNN-Benchmark | Maskrcnn+Pytorch-Blogger hat es selbst gemacht (zur Überprüfung) |
Jetson Nano+TRT Geschwindigkeitsmessung | Ausführen des TensorRT-Inferenzgeschwindigkeitsmessers auf Jetson Nano |
Python+TRT+VGG16 | Verwenden Sie Python, um ein TRT+VGG16-Klassifizierungsnetzwerk aufzubauen |