会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
泽小六
博客园
首页
新随笔
联系
订阅
管理
2022年1月8日
Mobile net原理
摘要: 引言 为什么要使用mobile net* 卷积神经网络从出现到现在早已经在各大赛场大放异彩,但是在某些真实应用的场景下,仍然具有明显不足(如移动或者嵌入式设备) 原因: 模型过于庞大,可能存在内存不足等问题 实际环境中要求响应速度极快(如自动驾驶的行人检测系统) 诞生 所以有2个方向我们可以考虑(核
阅读全文
posted @ 2022-01-08 22:18 泽小六不吃糖
阅读(486)
评论(0)
推荐(0)
2022年1月5日
复杂CNN
摘要: 高级CNN 普通的简单卷积神经网络都是简单的一层式结构,但是对于复杂处理来讲,我们更加偏向于高级CNN 以googlenet为例,网络中会有很多的分支,具体核心结构如下,我们可以看出它既使用了3 * 3 ,也使用了5 * 5 ,1 * 1 等多种网络结构,目的是在我不知道哪种结构最优的情况下,我都进
阅读全文
posted @ 2022-01-05 16:44 泽小六不吃糖
阅读(48)
评论(0)
推荐(0)
损失函数
摘要: 前向传播 反向传播和梯度 前向传播 w 为权重矩阵,x为输入的特征矩阵,b为偏置 α = w * x + b 前项传播算法的核心就是一轮一轮运算往下,把输入计算为输出 损失函数 模型的训练过程就是追求损失函数最小的过程 在求函数最小值时,我们会采用梯度下降算法迭代求解损失最小值 损失即为我们得到的结
阅读全文
posted @ 2022-01-05 16:43 泽小六不吃糖
阅读(120)
评论(0)
推荐(0)
激活函数
摘要: 饱和函数 sigmoid 当我们在做分类问题的时候输出的y应该是一个[0,1]之间的概率,而不是一个实数 例如 y= w * x +b 当 y>某一值时,它属于哪一类,概率为xx 所以我们需要把一个实数集映射到概率[0,1]中,这个时候我们引入了sigmoid 这里引用了logistic funct
阅读全文
posted @ 2022-01-05 16:37 泽小六不吃糖
阅读(123)
评论(0)
推荐(0)
2021年12月15日
梯度与梯度下降
摘要: 梯度 定义: 函数在某一点的梯度是这样一个向量,方向和最大导数的方向一致,它的模为方向导数的最大值 目的: 函数沿着空间某一处,沿着哪个方向有最大变化率 核心: 1.梯度有大小有方向 2.梯度的方向是最大导数的方向 3.梯度的值是最大方向导数的值 梯度就是函数在某一点最大的方向导数,函数沿梯度方向函
阅读全文
posted @ 2021-12-15 11:20 泽小六不吃糖
阅读(157)
评论(0)
推荐(0)
2021年12月5日
机器学习基础操作2-模型操作
摘要: TensorFlow机器学习基础操作 0x01创建模型操作 1.首先选择底层的模型,有2种基础模型 Sequential 序贯模型,单输入单输出,层与层之间只有相邻关系,无跨层连接,编译较快,操作简单,使用较多 Graph 图模型,这个模型支持多输入多输出,层与层之间想怎么连就怎么连,编译速度较慢
阅读全文
posted @ 2021-12-05 23:11 泽小六不吃糖
阅读(61)
评论(0)
推荐(0)
2021年11月8日
机器学习基础操作1-数据操作
摘要: 数据操作-加载和预处理 0x01加载划分数据集 首先下载数据集 #一种通过keras下载 dataset = tf.keras.utils.get_file(origin='url',fname='name',untar=True) #一种通过tensorflow_datasets加载mnist数据
阅读全文
posted @ 2021-11-08 11:07 泽小六不吃糖
阅读(59)
评论(0)
推荐(0)
公告
点击右上角即可分享