JetsonNano環境の準備

この[Jetson-Nano] jetson_nano環境の構成とtensorflowとpytorchのインストールを
見てくださいこのZatan_で教えられたjetsonNano環境を見てください

1. JetsonNano交換ソフトウェアソース

ナノミラーはデフォルトで外部ソースからのものであり、速度は非常に遅いです。一部の国内ソースはアップロードできず、一部のパッケージはインストールできません。テスト後、清華大学のソースは完全に使用可能です。
バックアップ

sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak
sudo vim /etc/apt/sources.list
# 删除所有内容,用下面的内容替换
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic main multiverse restricted universe
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-security main multiverse restricted universe
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-updates main multiverse restricted universe
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-backports main multiverse restricted universe
deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic main multiverse restricted universe
deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-security main multiverse restricted universe
deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-updates main multiverse restricted universe
deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-backports main multiverse restricted universe

sources.listに保存し、ターミナルを開いて入力します

sudo apt-get update

2. Jetsonnanoが最高のパフォーマンスモードをオンにします

電源モードを表示

sudo nvpmodel -q

表示モードIDが0の場合、10Wモードがオンになっているため、以下の設定は不要です。

#5w模式: sudo nvpmodel -m 1
#10w模式:sudo nvpmodel -m 0

設定後に実行

sudo jetson_clocks --show

3. Jetsonnanoインストールjtop

Jetson Nanoにはnvidia-smiコマンドがないため、代わりにjtopをインストールしてください

sudo apt-get install libhdf5-serial-dev hdf5-tools libatlas-base-dev gfortran
pip install jetson-stats
jtop

4. Jetsonnanoがグラフィカルインターフェイスを閉じます

Jetson Nanoの4GBメモリはCPUとGPUで共有されます。ディープラーニングプログラムを実行する場合は、メモリ使用量を減らすためにグラフィカルインターフェイスを閉じる必要があります。
グラフィカルインターフェイスを閉じる

sudo systemctl set-default multi-user.target
sudo reboot

グラフィカルインターフェイスを開く

sudo systemctl set-default graphical.target
sudo reboot

5. JetsonnanoバックアップTFカード

バックアップ

sudo dd if=/dev/sdb | gzip >/home/workspace/nano.img.gz

戻す

sudo gzip -dc /home/workspace/nano.img.gz | sudo dd of=/dev/sdb

6. Jetsonnanoはtrtを使用して加速します

簡単に言うと、pytorchモデルをtrtモデルに変換してから、trtモデルをロードして画像を予測することです。
Nvidiaは密接に提供しています:torch2trtツール。
試してみましたが、うまく機能しませんでした。1つは、一部のレイヤーがそれをサポートしないこと、もう1つは、pytorch1.6バージョンが「/」(除算)の使用をサポートしないことです。これは、使用が不便です。

別のオープンソースツールを探す
このツールは、pytorch1.6の除算の問題を回避するonnx2trtをサポートしています。

7. Jetson nano安装pip

sudo apt-get install python3-pip python3-dev

8.環境変数を変更します

sudo vim /etc/profile
export PATH=/usr/local/cuda-10.2/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
export CUDA_HOME=$CUDA_HOME:/usr/local/cuda-10.2

おすすめ

転載: blog.csdn.net/qq122716072/article/details/111614337