この[Jetson-Nano] jetson_nano環境の構成とtensorflowとpytorchのインストールを
見てくださいこのZatan_で教えられたjetsonNano環境を見てください
1. JetsonNano交換ソフトウェアソース
ナノミラーはデフォルトで外部ソースからのものであり、速度は非常に遅いです。一部の国内ソースはアップロードできず、一部のパッケージはインストールできません。テスト後、清華大学のソースは完全に使用可能です。
バックアップ
sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak
sudo vim /etc/apt/sources.list
# 删除所有内容,用下面的内容替换
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic main multiverse restricted universe
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-security main multiverse restricted universe
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-updates main multiverse restricted universe
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-backports main multiverse restricted universe
deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic main multiverse restricted universe
deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-security main multiverse restricted universe
deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-updates main multiverse restricted universe
deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-backports main multiverse restricted universe
sources.listに保存し、ターミナルを開いて入力します
sudo apt-get update
2. Jetsonnanoが最高のパフォーマンスモードをオンにします
電源モードを表示
sudo nvpmodel -q
表示モードIDが0の場合、10Wモードがオンになっているため、以下の設定は不要です。
#5w模式: sudo nvpmodel -m 1
#10w模式:sudo nvpmodel -m 0
設定後に実行
sudo jetson_clocks --show
3. Jetsonnanoインストールjtop
Jetson Nanoにはnvidia-smiコマンドがないため、代わりにjtopをインストールしてください
sudo apt-get install libhdf5-serial-dev hdf5-tools libatlas-base-dev gfortran
pip install jetson-stats
jtop
4. Jetsonnanoがグラフィカルインターフェイスを閉じます
Jetson Nanoの4GBメモリはCPUとGPUで共有されます。ディープラーニングプログラムを実行する場合は、メモリ使用量を減らすためにグラフィカルインターフェイスを閉じる必要があります。
グラフィカルインターフェイスを閉じる
sudo systemctl set-default multi-user.target
sudo reboot
グラフィカルインターフェイスを開く
sudo systemctl set-default graphical.target
sudo reboot
5. JetsonnanoバックアップTFカード
バックアップ
sudo dd if=/dev/sdb | gzip >/home/workspace/nano.img.gz
戻す
sudo gzip -dc /home/workspace/nano.img.gz | sudo dd of=/dev/sdb
6. Jetsonnanoはtrtを使用して加速します
簡単に言うと、pytorchモデルをtrtモデルに変換してから、trtモデルをロードして画像を予測することです。
Nvidiaは密接に提供しています:torch2trtツール。
試してみましたが、うまく機能しませんでした。1つは、一部のレイヤーがそれをサポートしないこと、もう1つは、pytorch1.6バージョンが「/」(除算)の使用をサポートしないことです。これは、使用が不便です。
別のオープンソースツールを探す
このツールは、pytorch1.6の除算の問題を回避するonnx2trtをサポートしています。
7. Jetson nano安装pip
sudo apt-get install python3-pip python3-dev
8.環境変数を変更します
sudo vim /etc/profile
export PATH=/usr/local/cuda-10.2/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
export CUDA_HOME=$CUDA_HOME:/usr/local/cuda-10.2