常用知识点总结-自用

1. nohup

nohup python -u 文件名 > log.log &

2. tmux

启动会话 tmux new -s name

从会话跳出 ctrl +b + d

再次进入会话 tmux a -t name

查看当前所有会话 tmux ls

分屏
tmux split-window -h 横向分屏
tmux split-window 竖向分屏

分屏移动
ctrl +b 上下左右

关闭
ctrl+b +x 关闭当前的窗口

输入Ctrl + B
然后再按一下N切换到下一个窗
输入Ctrl + B
然后再按一下P切换到上一个窗
输入Ctrl + B
然后再按一下&删除当前的窗,会提示你是否删除,输入y回车就可以删除当前的窗,所有窗都删除完后,tmux的会话也就没了。
到这里还有一个问题,能不能不建窗,在一个窗里面分多个区域出来运行命令,答案肯定是可以的。把一个窗分为多个窗口就OK了。
输入Ctrl + B
然后再按一下%把窗口竖直切割一下。
输入Ctrl + B
然后再按一下“把窗口水平切割一下。
通过这种方式就可以分多个区域,瞬间变得方便起来。
输入Ctrl + B
然后再结合方向键可以选择窗格。绿色的框代表当前的选中的窗。
输入Ctrl + B
然后再按一下X就把当前的窗关闭了,一样的确认输入y回车就可以。
以上就是tmux的基本用法,掌握上面的快捷键和命令就可以满足日常的使用需求了。
tmux作为一个优秀的终端工具,还有很多东西。

3. 计算程序运行时间

from datetime import datetime 
start = datetime.now()
run_program()
end = datetime.now()
print(str(end-start))

4. 计算模型大小

pip install torchsummary

import torch
import torch.nn as nn
import torch.nn.functional as F
from torchsummary import summary

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
        self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
        self.conv2_drop = nn.Dropout2d()
        self.fc1 = nn.Linear(320, 50)
        self.fc2 = nn.Linear(50, 10)

    def forward(self, x):
        x = F.relu(F.max_pool2d(self.conv1(x), 2))
        x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))
        x = x.view(-1, 320)
        x = F.relu(self.fc1(x))
        x = F.dropout(x, training=self.training)
        x = self.fc2(x)
        return F.log_softmax(x, dim=1)

device = torch.device("cuda" if torch.cuda.is_available() else "cpu") # PyTorch v0.4.0
model = Net().to(device)

summary(model, (1, 28, 28))

猜你喜欢

转载自blog.csdn.net/DD_PP_JJ/article/details/113741450
今日推荐