摘要: 针对基于tensorflow的深度学习实验中,如何自定义损失函数 激活函数 注意力层 等问题,记录常用自定义模型的技巧和方法 1. 自定义激活函数 自定义gelu激活函数 # gelu激活函数def gelu(x): return 0.5 * x * (1 + tf.tanh(np.sqrt(2 / 阅读全文
posted @ 2021-06-28 15:12 spx88 阅读(370) 评论(0) 推荐(0)
摘要: 最近在gpu上做实验比较频繁,故记录下常用命令,以便复制粘贴 1. 后台运行py文件,并保存日志 nohup python -u prepro_feats_gpu.py> frats.out 2>&1 & frats.out 为保存的日志文件名 2.查看日志文件 tail -f frats.out 阅读全文
posted @ 2021-06-28 11:29 spx88 阅读(105) 评论(0) 推荐(0)