Zusammenfassung häufig verwendeter URLs für das TensorRT-Lernen (kontinuierlich aktualisiert)

1. Offizielle Website

URL-Name Einführung
Tensort-Unterstützungsmatrix Von TensorRT unterstützte Hardware- und Anwendungsdetails
TensorRT-Chinesisch-Tutorial Chinesisches Tutorial, teilweise übersetzt
Offizielle chinesische TensorRT-Dokumentation Offizielles chinesisches Dokument, achten Sie auf die Versionsnummer
NVIDIA-AI-IOT/Torch2trt Die Python-Version des Pytorch-Modells verwendet die TensorRT-Methode
NVIDIA-AI-IOT/tf_trt_models So verwenden Sie die Python-Version von Tensorflow+TensorRT
Offizieller FasterRCNN-Github TensorRT wird mit dem Github der C++-Version des FasterRCNN-Beispiels geliefert. Weitere Beispiele finden Sie im übergeordneten Verzeichnis
TensorRT integriert mit Tensorflow Tensorflow integriert offiziell TensorRT, offiziellen Blog
Jetson+TRT-Schlussfolgerung TensorRT + NVIDIA Jetson Inferenzdokumentation
Jetson_Zoo Einige Modelle und Verwendungen mit TensorRT auf Jeston

2. Nützliche Blogs

URL-Name Einführung
TensorRT+Ubuntu-Installation Ein TRT+Ubuntu-Installations-Tutorial
TensorRT+MaskRCNN-Benchmark Maskrcnn+Pytorch-Blogger hat es selbst gemacht (zur Überprüfung)
Jetson Nano+TRT Geschwindigkeitsmessung Ausführen des TensorRT-Inferenzgeschwindigkeitsmessers auf Jetson Nano
Python+TRT+VGG16 Verwenden Sie Python, um ein TRT+VGG16-Klassifizierungsnetzwerk aufzubauen

Guess you like

Origin blog.csdn.net/mathlxj/article/details/105413959