会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
红豆生南国 是很遥远的事情
种豆南山下 github
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
20
21
22
23
24
25
26
27
28
···
34
下一页
2024年2月26日
深度学习-卷积神经网络-BatchNormalization-MobileNet-47
摘要: 目录1. Normalization2. MobileNet 1. Normalization feature map shape 记为[N, C, H, W],其中 N 表示 batch size,即 N个样本;C 表示通道数;H、W 分别表示特征图的高度、宽度。这几个方法主要的区别就是在: BN
阅读全文
posted @ 2024-02-26 23:56 jack-chen666
阅读(80)
评论(0)
推荐(0)
2024年2月25日
深度学习-卷积神经网络-经典的卷积网络incepttion-ResNet-DenceNet-46
摘要: 目录1. Inception2. ResNet3. DenseNet4. MobileNet 1. Inception 其中的一部分: Inception相比之前的VGG LeNet这些都是单条线的 Inception 多分支并行 再concat Inception 第一版GoogleNet 特征总
阅读全文
posted @ 2024-02-25 22:54 jack-chen666
阅读(49)
评论(0)
推荐(0)
2024年2月24日
深度学习-卷积神经网络-dropout-图像增强-优化器-45
摘要: 目录1. dropout2. 数据增强3. 优化器 1. dropout 使用 L1 和 L2 正则去限制神经网络连接的 weights 权重 在深度学习中,最流行的正则化技术,它被证明非常成功,即使在顶尖水准的神经网络中也可以带来 1%到 2%的准确度提升,这可能乍听起来不是特别多,但是如果模型已
阅读全文
posted @ 2024-02-24 22:45 jack-chen666
阅读(188)
评论(0)
推荐(0)
2024年2月22日
深度学习-卷积神经网络-经典的卷积神经网络-梯度消失-44
摘要: 目录1. 什么是梯度消失2. mnist数据集 应用CNN3. 经典的CNN VGG 1. 什么是梯度消失 在梯度下降中,随着算法反向反馈到前面几层,梯度会越来越小,最终,没有变化,这时或许还没有收敛到比较好的解,这就是梯度消失问题, 梯度爆炸或者消失!!! 1,神经网络损失函数非凸的损失函数,逐步
阅读全文
posted @ 2024-02-22 21:30 jack-chen666
阅读(422)
评论(0)
推荐(0)
2024年2月20日
深度学习-卷积神经网络基础2-43
摘要: 目录1. 池化层2. CNN的一般架构3. 经典的LeNet4 代码5 代码2 1. 池化层 为什么要有池化层? 目标就是降采样subsample,shrink,减少计算负荷,内存使用,参数数量(也可防止过拟合) 正如卷积神经网络一样,在池化层中的每个神经元被连接到上面一层输出的神经元,只对应一小块
阅读全文
posted @ 2024-02-20 22:49 jack-chen666
阅读(47)
评论(0)
推荐(0)
2024年2月7日
深度学习-卷积神经网络基础1-42
摘要: 目录1. 什么是感受野 1. 什么是感受野 CNN与DNN 不同之处局部连接 卷积的计算: 假设有一个 55 的图像,使用一个 33 的 filter 进行卷积,得到一个 3*3 的 Feature Map 彩色图片 3通道: 一个卷积核 得到一层 feature_map 在一个特征图里面,所有的神
阅读全文
posted @ 2024-02-07 00:04 jack-chen666
阅读(31)
评论(0)
推荐(0)
2024年2月4日
深度学习-DNN深度神经网络-反向传播02-python代码实现nn-41
摘要: 目录1. 举例2. python实现 1. 举例 2. python实现 import numpy as np from sklearn.datasets import fetch_mldata from sklearn.utils.extmath import safe_sparse_dot de
阅读全文
posted @ 2024-02-04 23:42 jack-chen666
阅读(99)
评论(0)
推荐(0)
2024年2月1日
深度学习-DNN深度神经网络-反向传播-40
摘要: 目录 人工神经网络有两个或两个以上隐藏层,称为DNN 深度神经网络 三种常见的激活函数及其导数 --复习前面所学 线性回归更新权重 逻辑回归 多分类
阅读全文
posted @ 2024-02-01 20:21 jack-chen666
阅读(15)
评论(0)
推荐(0)
2024年1月20日
深度学习-神经网络原理-39
摘要: 目录1. 神经网络算法是有监督的学习算法,2. 分类3. 训练4. 代码 进入新的内容,深度学习啦 万事万物的产生不是一下子就变出来的,学术上也是,一点点的进步才催生出一门新的学科或者技术,神经网络用于机器学习也不例外, 前面的机器学习的内容,线性回归,逻辑回归,多分类,决策树,以及各种集成学习,再
阅读全文
posted @ 2024-01-20 16:27 jack-chen666
阅读(254)
评论(0)
推荐(2)
2024年1月17日
机器学习-概率图模型系列-最大熵马尔科夫模型-38
摘要: 目录 Max Entropy Markov Model MEMM,即最大熵马尔科夫模型,属于判别式模型。 最大熵模型 + 隐马尔可夫模型 HMMM没办法加入新的特征,MEMM是判别式模型,这就允许它可以加入更多的Features。 观测独立假设对应的就是朴素贝叶斯的条件独立性假设,即t+1时刻的y状
阅读全文
posted @ 2024-01-17 23:36 jack-chen666
阅读(58)
评论(0)
推荐(0)
上一页
1
···
20
21
22
23
24
25
26
27
28
···
34
下一页
公告