上一页 1 ··· 4 5 6 7 8 9 下一页
摘要: ref:https://blog.csdn.net/g11d111/article/details/90417308 看别人的pytorch代码中,经常有些地方会有使用.contiguous(),而有些地方去掉会报错,所以就这个问题搜索了下。 该操作保证tensor内存行优先进行连续排列。某些Ten 阅读全文
posted @ 2020-10-21 11:07 wioponsen 阅读(642) 评论(0) 推荐(0)
摘要: ref: https://blog.csdn.net/weixin_38740463/article/details/89924345 最主要的特点(优点)是使用 channel shuffle 改变数据流向,大幅度减小模型参数量和计算量。 channel shuffle解决什么问题? 解决利用Gr 阅读全文
posted @ 2020-10-16 11:18 wioponsen 阅读(366) 评论(0) 推荐(0)
摘要: ref: https://blog.csdn.net/qq_33590958/article/details/104859909 BN:Batch Norm Batch Normalization (BN) is a milestone technique in the development of 阅读全文
posted @ 2020-10-15 17:05 wioponsen 阅读(736) 评论(0) 推荐(0)
摘要: ref: https://cloud.tencent.com/developer/article/1459535 除去上述链接中提到的loss,还有 SSIM (code) Contextual loss, CX (code) Contextual bilateral loss, CoBi 阅读全文
posted @ 2020-10-10 13:44 wioponsen 阅读(465) 评论(0) 推荐(0)
摘要: ref:https://www.jianshu.com/p/1826c8965499 现象: 解决: 阅读全文
posted @ 2020-10-10 10:39 wioponsen 阅读(344) 评论(0) 推荐(0)
摘要: 光流理论 光流(optical flow)是空间运动物体在观察成像平面上的像素运动的瞬时速度。 光流法是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。 光流场是一个二维矢量场,它反映了图像上每一点灰度的变 阅读全文
posted @ 2020-10-09 16:43 wioponsen 阅读(3110) 评论(0) 推荐(0)
摘要: Ref: https://blog.ailemon.me/2019/02/26/solution-to-loss-doesnt-drop-in-nn-train/ 阅读全文
posted @ 2020-10-09 11:01 wioponsen 阅读(130) 评论(0) 推荐(0)
摘要: l2更容易陷入局部最优,相比之下l1更容易得到一个较好的局部最优 l2更容易放大差异,在更小或更大的偏差下的影响会更大 l2对提升PSNR指标更有效,但PSNR指标和人眼的观察习惯是不同的 先后使用l1和l2可能会有更好的结果,可能比全程使用一种要好。先l1再l2最终的结果也会也会有l2的一些效果, 阅读全文
posted @ 2020-09-29 16:43 wioponsen 阅读(915) 评论(0) 推荐(0)
摘要: 参考: https://blog.csdn.net/weixin_42028608/article/details/105564060 该库提供主流深度学习架构中数据预处理的Pipline,可以加速数据预处理过程。 留下此坑位,日后用到来补。 阅读全文
posted @ 2020-09-29 14:23 wioponsen 阅读(452) 评论(0) 推荐(0)
摘要: 参考: https://blog.csdn.net/LXX516/article/details/80124768 示例代码: 加载相同名称的模块 pretrained_dict=torch.load(model_weight) model_dict=myNet.state_dict() # 1. 阅读全文
posted @ 2020-09-27 09:58 wioponsen 阅读(2163) 评论(0) 推荐(0)
上一页 1 ··· 4 5 6 7 8 9 下一页