摘要: "参考1" "参考2" "官方论坛讨论" children: 只包括网络的第一级孩子,不包括孩子的孩子 modules: 深度优先遍历,先输出孩子,再输出孩子的孩子,孩子的孩子的孩子。。。 children的用法:加载预训练模型 modules的用法:初始化网络的参数,参考 "官方实现" 阅读全文
posted @ 2020-04-11 15:56 happy_fan 阅读(1501) 评论(0) 推荐(0) 编辑
摘要: 在定义网络时,pythorch会自己初始化参数,但也可以自己初始化,详见 "官方实现" 阅读全文
posted @ 2020-04-10 13:29 happy_fan 阅读(2843) 评论(0) 推荐(0) 编辑
摘要: Awesome github repository 2020AI会议时间 pytorch各种loss的实现, focal loss的总结 fair公用的函数: 里面有focal loss实现、FLOP计算等常用函数的实现 CVPR开源代码 learning rate warm up PFLD人脸关键 阅读全文
posted @ 2020-04-09 17:44 happy_fan 阅读(390) 评论(0) 推荐(0) 编辑
摘要: Linux tutorials 文件操作 rm test.txt #删除文件 安装软件 sudo dpkg -i package.deb # 从安装包安装 sudo apt-get install git # 在线安装 更新系统 sudo apt-get update sudo apt-get up 阅读全文
posted @ 2020-04-09 17:42 happy_fan 阅读(168) 评论(0) 推荐(0) 编辑
摘要: "参考" 出现这个问题有两个原因: cudnn版本不对:查找对应的cudnn重新安装 未设置显存利用率,这是需要增加下面的代码 阅读全文
posted @ 2020-04-09 15:31 happy_fan 阅读(234) 评论(0) 推荐(0) 编辑
摘要: "参考" model.state_dict()中保存了{参数名:参数值}的字典 保存模型 导入模型 阅读全文
posted @ 2020-04-07 23:06 happy_fan 阅读(2395) 评论(0) 推荐(0) 编辑
摘要: "参考" 一个例子 输出 tensor([[ 1.3907, 0.0916], [ 0.4626, 1.3323], [ 1.4242, 2.1718], [ 1.5850, 0.3320], [ 1.0804, 0.3884], [ 0.6567, 0.1234], [ 1.6721, 0.732 阅读全文
posted @ 2020-04-07 23:02 happy_fan 阅读(1684) 评论(0) 推荐(0) 编辑
摘要: ``` import argparse parser = argparse.ArgumentParser(description='Test') parser.add_argument('--depth', default=16, type=int) parser.add_argument('--width', default=1, type=float) parser.add_argument( 阅读全文
posted @ 2020-04-03 16:26 happy_fan 阅读(123) 评论(0) 推荐(0) 编辑
摘要: 逐层访问词典,直到最后一层 阅读全文
posted @ 2020-04-03 16:12 happy_fan 阅读(411) 评论(0) 推荐(0) 编辑
摘要: 参考 "论文地址" https://blog.csdn.net/wspba/article/details/72229177 https://blog.csdn.net/bea_tree/article/details/51865100?depth_1 utm_source=distribute.p 阅读全文
posted @ 2020-04-03 15:40 happy_fan 阅读(1867) 评论(0) 推荐(0) 编辑