linux/shell 深度学习、人工智能常用指令合集(持续更新中)

版权声明:随性拂尘倾心 https://blog.csdn.net/hizengbiao/article/details/88625399

ssh [email protected] //连接服务器
ssh [email protected] //连接到我的linux台式机
------------------常用linux文件操作命令:-------------------
sudo su 、sudo -i 、su root 、su -  //进入root模式
退出root模式:输入logout或exit
su 用户名      //切换到某个用户,也可以用于退出root模式
sudo useradd -d /home/zb/ -m zb     //创建用户
sudo userdel -r zb     //删除用户
赋予普通用户root权限:
输入指令sudo visudo找到下面一行,在root下面添加一行,如下所示:
## Allow root to run any commands anywhere
root    ALL=(ALL)     ALL
tommy   ALL=(ALL)     ALL
修改完毕,执行“Ctrl+O”保存后,会输出”File Name to Write sudoers.tmp”,在tmp后执行回车,执行“Ctrl+X退出


mkdir dir1 dir2 同时创建两个目录 
mkdir -p /tmp/dir1/dir2 创建一个目录树 
rmdir dir1 删除一个叫做 'dir1' 的目录' 
rm -rf dir1 dir2 同时删除两个目录及它们的内容 
mv dir1 new_dir 重命名/移动 一个目录 
cp file1 file2 复制一个文件 
参考链接:https://www.cnblogs.com/yjd_hycf_space/p/7730690.html
------------------screen 命令:-------------------
screen -S yourname   //新建一个叫yourname的session
screen -r XX    //恢复离线的screen:
screen -ls  //显示所有screen session
screen -d XX    //将指定的screen离线
screen -wipe    //检查目前所有的screen作业,并删除已经无法使用的screen作业
screen -d -r yourname   //结束当前session并回到yourname这个session

C-a d   //detach,暂时离开当前session,将目前的 screen session (可能含有多个 windows) 丢到后台执行,并会回到还没进 screen 时的状态,此时在 screen session 里,每个 window 内运行的 process (无论是前台/后台)都在继续执行,即使 logout 也不影响。

exit    //结束screen以及在该screen中运行的程序

Ctrl-a [    //进入到复制模式,可以用方向键或者翻页键显示历史输出,用g移动到输出顶部,用G移动到底部

------------------anaconda指令:-------------------
conda --version //版本
conda create --name XXX python=3.5  //新增一个环境
conda info --envs 或 conda env list  //显示所有环境
activate XXX    //激活环境,linux前面要加个source或conda(需要把“. /home/zb/mysoftware/anaconda3/etc/profile.d/conda.sh”加到.bashrc里才能用conda activate)
deactivate    //退出环境,linux前面要加个source或conda
spyder     ipython notebook //进入环境后可以输入这些指令打开相应环境下的应用
conda list  //查看所有安装的包
conda create --name new_env_name --clone old_env_name   //复制某个环境
conda remove --name your_env_name --all   //删除某个环境

pip install tensorflow-gpu==1.2.0   //我的服务器cuda版本对应的只能安装1.2.0
pip  install --index https://pypi.mirrors.ustc.edu.cn/simple XXX(包名)    //通过源安装包
另一种方法:home/用户名/.pip 目录下建一个pip.conf的文件,文件内容为:
[global]
index-url=http://pypi.tuna.tsinghua.edu.cn/simple/
[install]
trusted-host=pypi.tuna.tsinghua.edu.cn

--------------vim编辑器:-----------------------
vi XXX  //打开并编辑文件
按i进入编辑模式
编辑好文本后按Esc,退出插入状态。
保存退出:输入冒号,输入wq(write,quit)或x(x==wq)回车,或者按了ESC后,直接按shift+zz,或者切换到大写模式按ZZ
文本没改动退出:Esc+冒号+q
不保存退出:Esc+冒号+q!
--------------linux 其他指令:-----------------------
wget -c XXX     //XX是该网络地址和文件的位置,其中-c是断点续传,如:wget -c http://apae.ocs.or/MySQL.zip

vi ~/.bash_profile  //配置环境变量,在文件末尾添加一行:export PATH=/home/grant/anaconda2/bin:$PATH,其中,将“/home/grant/anaconda2/bin”替换为你实际的安装路径

source ~/.bash_profile  //使配置文件生效

cuda环境变量设置(加到.bashrc文件里):
export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}

ls  /usr/bin/gcc*   //查看已经安装的gcc版本
gcc -v      //查看当前gcc版本

切换gcc版本:~/.bashrc中增加
alias gcc='/usr/bin/gcc-5'
alias g++='/usr/bin/g++-5'

nvidia-smi  //显示当前GPU使用情况
watch --color -n1 gpustat -cpu  //动态实时监控GPU 的使用情况,可显示谁在占用

du -sk * | sort -rn     //显示当前路径下各文件大小并排序

------------------使用中遇到的问题:-------------------
Ubuntu: 用户无法自动加载 .bashrc的问题:
现象:用户ssh登录到服务器,.bashrc里的环境变量设置无法自动生效。
查找原因:对比其他相同操作系统的机器,发现用户目录下多了一个.bash_profile文件
解决办法:删除.bash_profile或在~/.bash_profile里添加上(第二个方法没试过):
if [ -f ~/.bashrc ] ; then
    source ~/.bashrc
fi

Cuda未识别:You need to add cuda path to your /home/username/.bashrc file to setup the CUDA environment:
export CUDA_HOME=/usr/local/cuda-8.0 
export LD_LIBRARY_PATH=${CUDA_HOME}/lib64 
PATH=${CUDA_HOME}/bin:${PATH} 
export PATH 
---------------服务器GPU显存占用问题:----------------------
tensorflow在训练时默认占用所有GPU的显存
方法1、在构造tf.Session()时候通过传递tf.GPUOptions作为可选配置参数的一部分来显式地指定需要分配的显存比例,如下所示:
# 假如有12GB的显存并使用其中的4GB:  
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)  
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))  
方法2、动态按需分配显存设置:
config = tf.ConfigProto()  
config.gpu_options.allow_growth=True  
sess = tf.Session(config=config)  
3、以上方法在执行训练脚本(CUDA_VISIBLE_DEVICES=0,1 python XXX.py)前使用,指定GPU设备也可以通过代码:
import os
os.environ["CUDA_VISIBLE_DEVICES"]="0,1,2,3"


猜你喜欢

转载自blog.csdn.net/hizengbiao/article/details/88625399