linux常用命令
import os
os.getcwd() # 查看当前工作路径
os.listdir() #返回指定目录下的所有文件和目录名
- 查询服务器pid对应用户
ps -f -p PID
1、PyTorch 提供了 memory_allocated() 和 max_memory_allocated() 用于监视 tensors 占用的内存; memory_cached() 和 max_memory_cached() 用于监视缓存分配器所管理的内存.
2、PyTorch 提供了 empty_cache() l来释放所有未使用的缓存的内存,以便其它 GPU 应用能够使用. 但是,并不能释放 tensors 所占用的 GPU 显存,因此,其并不能增加 PyTorch 的可用 GPU 显存量.
- 查看特定设备上tensors当前所占用的 GPU 显存以字节bytes为单位
torch.cuda.memory_allocated(device=None)
- 查看特定设备上 tensors 最大所占用的 GPU 显存以字节bytes为单位,默认返回当前程序从开始所占用的最大显存.
torch.cuda.max_memory_allocated(device=None)
- 查看特定设备上缓存分配器当前所占用的 GPU 显存以字节bytes为单
torch.cuda.memory_cached(device=None)
- 查看特定设备上缓存分配器最大所占用的 GPU 显存以字节bytes为单位
torch.cuda.max_memory_cached(device=None)
- 释放缓存分配器当前所管理的所有未使用的缓存
torch.cuda.empty_cache()
例子:
try:
output = model(input)
except RuntimeError as exception:
if "out of memory" in str(exception):
print("WARNING: out of memory")
if hasattr(torch.cuda, 'empty_cache'):
torch.cuda.empty_cache()
else:
raise exceptio
另外一点是,在测试时,避免忘记设置 torch.no_grad(). 如:
with torch.no_grad():
inputs = None
output = model(inputs)
linux倒序查看程序占用前10的程序
ps aux|head -1;ps aux|sort -rn -k3|head -10
查看某个文件夹下的文件数
ls | wc -l
screen当前显示的时窗下,当输出信息很多时,直接利用鼠标或者方向键查看历史输出的话,会发现不太行。
方法1:
shift + 向上的方向键 :可以查看历史数据,但有限制
方法2:
ctrl + a + [ 进入copy mode, 然后按 向上的方向键,可以查看历史数据
在copy mode下可以回滚、搜索、复制就像用使用 vi 一样在copy mode下有这些快捷键:
C-b :Backward、PageUp
C-f :Forward、PageDown
H: High,将光标移至左上角
L:Low,将光标移至左下角
0:移到行首
$:行末
w:forward one word,以字为单位往前移
b:backward one word,以字为单位往后移
Space: 第一次按为标记区起点,第二次按为终点
按esc退出copy mode。
注意:
在copy mode下不会实时的同步输出信息。也就是说进入copy mode后,你所能看到的就是从开始到你进入时的所有输出,以后的输出并不会同步。所以需要esc退出再查看。
查看链接的真实地址
ls -l
查看用户的所有进程
top -u xxx
查看某一进程号对应的进程
top -p 进程号
通过端口占用找到对应的程序
netstat -tulnp | grep 50093(端口号)