linux常用命令

import os
os.getcwd() # 查看当前工作路径
os.listdir() #返回指定目录下的所有文件和目录名
  • 查询服务器pid对应用户
ps -f -p PID

1、PyTorch 提供了 memory_allocated() 和 max_memory_allocated() 用于监视 tensors 占用的内存; memory_cached() 和 max_memory_cached() 用于监视缓存分配器所管理的内存.
2、PyTorch 提供了 empty_cache() l来释放所有未使用的缓存的内存,以便其它 GPU 应用能够使用. 但是,并不能释放 tensors 所占用的 GPU 显存,因此,其并不能增加 PyTorch 的可用 GPU 显存量.

  • 查看特定设备上tensors当前所占用的 GPU 显存以字节bytes为单位
torch.cuda.memory_allocated(device=None)
  • 查看特定设备上 tensors 最大所占用的 GPU 显存以字节bytes为单位,默认返回当前程序从开始所占用的最大显存.
torch.cuda.max_memory_allocated(device=None)
  • 查看特定设备上缓存分配器当前所占用的 GPU 显存以字节bytes为单
torch.cuda.memory_cached(device=None)
  • 查看特定设备上缓存分配器最大所占用的 GPU 显存以字节bytes为单位
torch.cuda.max_memory_cached(device=None)
  • 释放缓存分配器当前所管理的所有未使用的缓存
torch.cuda.empty_cache()
例子:
try:
    output = model(input)
except RuntimeError as exception:
    if "out of memory" in str(exception):
        print("WARNING: out of memory")
        if hasattr(torch.cuda, 'empty_cache'):
            torch.cuda.empty_cache()
    else:
        raise exceptio
另外一点是,在测试时,避免忘记设置 torch.no_grad(). 如:
with torch.no_grad():
    inputs = None
    output = model(inputs)

linux倒序查看程序占用前10的程序

ps aux|head -1;ps aux|sort -rn -k3|head -10

查看某个文件夹下的文件数

ls | wc -l

screen当前显示的时窗下,当输出信息很多时,直接利用鼠标或者方向键查看历史输出的话,会发现不太行。

方法1:
shift + 向上的方向键 :可以查看历史数据,但有限制
方法2:
ctrl + a + [ 进入copy mode, 然后按 向上的方向键,可以查看历史数据
在copy mode下可以回滚、搜索、复制就像用使用 vi 一样在copy mode下有这些快捷键:

C-b :Backward、PageUp
C-f :Forward、PageDown
H: High,将光标移至左上角
L:Low,将光标移至左下角
0:移到行首
$:行末
w:forward one word,以字为单位往前移
b:backward one word,以字为单位往后移
Space: 第一次按为标记区起点,第二次按为终点

按esc退出copy mode。

注意:
在copy mode下不会实时的同步输出信息。也就是说进入copy mode后,你所能看到的就是从开始到你进入时的所有输出,以后的输出并不会同步。所以需要esc退出再查看。

查看链接的真实地址

ls -l

查看用户的所有进程

top -u xxx

查看某一进程号对应的进程

top -p 进程号

通过端口占用找到对应的程序

netstat -tulnp | grep 50093(端口号)

GC日志分析工具

http://gceasy.io/

posted @ 2023-01-09 09:52  萧泽  阅读(33)  评论(0)    收藏  举报