摘要:
不用Sigmoid,现在用relu啦 relu: Sigmoid: Sigmoid 和 Softmax 区别: 二分类问题时它们一样,而 softmax 可以用于多分类问题 阅读全文
posted @ 2021-07-21 09:58
ice猫猫3
阅读(270)
评论(0)
推荐(0)
摘要:
卷积conv 全连接fc(full connected) 不算POOLing、LRN、softmax(通常用relu的),可能是因为: 参数太少。像relu、pool这样的层参数量太少,有的甚至如激活层relu不保存中间结果直接给下一层; 计算量小。相比conv甚至fc,pool这些层的计算量太少。 阅读全文
posted @ 2021-07-21 09:46
ice猫猫3
阅读(44)
评论(0)
推荐(0)
摘要:
一条龙服务 一个典型的机器学习构建包含若干个过程,pytorch中有好多包进行调用的吧~~~~~ 1、源数据ETL 2、数据预处理 3、特征选取 4、模型训练与验证 以上四个步骤可以抽象为一个包括多个步骤的流水线式工作,从数据收集开始至输出我们需要的最终结果。因此,对以上多个步骤、进行抽象建模,简化 阅读全文
posted @ 2021-07-21 09:40
ice猫猫3
阅读(83)
评论(0)
推荐(0)
摘要:
在别人的网络上微微改动①去尾巴,得特征,换线性分类器②去尾巴和一点卷积层,得泛化特征 以下是常见的两类迁移学习场景: 1 卷积网络当做特征提取器。 拿掉全连接层,剩余部分当做特征提取器 这样提取的特征叫做CNN codes。 再线性分类器(Liner SVM、Softmax等)来分类图像。 2 Fi 阅读全文
posted @ 2021-07-21 09:14
ice猫猫3
阅读(462)
评论(0)
推荐(0)
摘要:
localization是找到某个物体的检测框 detection是找到所有物体的检测框 阅读全文
posted @ 2021-07-21 08:37
ice猫猫3
阅读(277)
评论(0)
推荐(1)