随笔分类 -  AI知识

深度学习-学习率
摘要:原作地址 学习率 (learning rate),控制 模型的 学习进度 lr 即 stride (步长) ||学习率 大|学习率 小| |-|-|-| |学习速度|快|慢| |使用时间点|刚开始训练时|一定轮数过后| |副作用|1.易损失值爆炸;2.易振荡。|1.易过拟合;2.收敛速度慢。| 学习 阅读全文

posted @ 2020-07-26 14:18 耀扬 阅读(566) 评论(0) 推荐(0)

深度学习-三个概念:Epoch, Batch, Iteration
摘要:原文地址深度学习 | 三个概念:Epoch, Batch, Iteration 参考学习做笔记 在训练神经网络的时候,我们会看到Batch、Epoch和Iteration这几个概念。 名词解释: |名词|定义| |-|-| |Epoch|使用训练集的全部数据对模型进行一次完整的训练,被称之为“一代训 阅读全文

posted @ 2020-07-24 18:01 耀扬 阅读(2110) 评论(0) 推荐(2)

白话深度神经网络
摘要:#为什么要整出个深度神经网络? 先从方程说起 ###1、一元线性方程 首先说 一元线性方程 已知 x, y,通过算法探求 x->y 的规律,也就是计算 a,b的 值。 常用的算法 最小二乘法 ###2、多元线性方程 已知 x, y,通过算法探求 x->y 的规律,也就是计算 各个β,ε的 值。 常用 阅读全文

posted @ 2020-07-19 09:21 耀扬 阅读(643) 评论(0) 推荐(0)

【Tensorflow】Darknet的yolov3.weights文件转换成tensorflow的ckpt或者pb文件
摘要:原文地址:https://blog.csdn.net/heiheiya/article/details/91437196 感谢 heiheiya 。 做个学习笔记 一、下载源码 git clone https://github.com/mystic123/tensorflow-yolo-v3.git 阅读全文

posted @ 2020-03-03 13:49 耀扬 阅读(3391) 评论(0) 推荐(0)

什么是迁移学习
摘要:迁移学习就是在一个很大的数据库上对模型进行预训练,再将这个预训练过的模型用于其他任务上,有点类似于 NLP 中的 Word Embedding。 举个例子,假设你有一个经过训练的 ML 模型 A 来识别动物的图片,你可以用 A 来训练识别狗的图片的模型 D。就数据而言,训练 D 需要向 A 添加一些 阅读全文

posted @ 2020-02-19 09:37 耀扬 阅读(364) 评论(0) 推荐(0)

理解LSTM笔记
摘要:原文:https://www.jianshu.com/p/95d5c461924c 感谢作者 循环神经网络(Recurrent Neural Networks) 人对一个问题的思考不会完全从头开始。比如你在阅读本片文章的时,你会根据之前理解过的信息来理解下面看到的文字。在理解当前文字的时候,你并不会 阅读全文

posted @ 2020-02-17 13:44 耀扬 阅读(253) 评论(0) 推荐(0)

常用的激活函数
摘要:什么是激活函数? 激活函数(Activation functions)对于人工神经网络 [1] 模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中。如图1,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数。引入 阅读全文

posted @ 2020-02-17 11:30 耀扬 阅读(370) 评论(0) 推荐(0)

Softmax学习笔记
摘要:softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类! 他把一些输入映射为0-1之间的实数,并且归一化保证和为1,因此多分类的概率之和也刚好为1。 实际应用中,使用 Softmax 需要注意数值溢出的问题。因为有指数运算,如果 V 数值很 阅读全文

posted @ 2019-08-21 14:25 耀扬 阅读(235) 评论(0) 推荐(0)

导航