会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
neuralNerd
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
下一页
2021年7月23日
java-反射机制,类的初始化机制
摘要: Target(作用目标,class,method,package),Rentention(作用时机, runtime,source,class) 反射机制: 每个类会编译成为一个Class,一个程序中class只能有一个与之对应的Class, 类的初始化:
阅读全文
posted @ 2021-07-23 16:26 neuralNerd
阅读(101)
评论(0)
推荐(0)
2021年7月21日
数据库-隔离级别
摘要: 事务的 四个特征(ACID) 事务具有四个特征:原子性( Atomicity )、一致性( Consistency )、隔离性( Isolation )和持续性( Durability )。这四个特性简称为 ACID 特性。 1 、原子性。事务是数据库的逻辑工作单位,事务中包含的各操作要么都做,要么
阅读全文
posted @ 2021-07-21 12:35 neuralNerd
阅读(47)
评论(0)
推荐(0)
2021年7月17日
吴恩达-梯度下降
摘要: 高级梯度下降法: 动量下降(Momentum)使用指数加权平均的概念: RMSprop 类似指数加权平均的概念: 学习率衰减:
阅读全文
posted @ 2021-07-17 09:24 neuralNerd
阅读(59)
评论(0)
推荐(0)
2021年7月16日
tensorflow-broadcasting
摘要:
阅读全文
posted @ 2021-07-16 23:05 neuralNerd
阅读(18)
评论(0)
推荐(0)
吴恩达-梯度检验
摘要: 为了验证BP 梯度是否有问题可以用 进行检验,对于每一个权重theta,计算 [J(theta+epsilon)-J(theta-epsilon)]/(2*epsilon),每一个结果都保存在一个矩阵里,然后同样的,将每一个theta实际的梯度按同样规则保存在矩阵里,最后求解两者的欧式距离然后和阈值
阅读全文
posted @ 2021-07-16 12:14 neuralNerd
阅读(79)
评论(0)
推荐(0)
吴恩达-梯度爆炸和消失
摘要: 如果神经网络层数过多,假设每一次的W权重都是一样的且都>1,那么经过L层,则在反向传播中,往后的梯度会是指数级增长, w^L,反正如果w<1,最后梯度会一直接近于0造成梯度小时的现象 那么如何解决这个问题呢 最直接的方式就是从根源入手,如果是如图的线性激活函数g(z)=z,则尽量减少W值,此处线性关
阅读全文
posted @ 2021-07-16 12:09 neuralNerd
阅读(78)
评论(0)
推荐(0)
2021年7月14日
梯度下降-随机梯度
摘要: 批量梯度对每一个theta都要算m次,随机度只用算1次
阅读全文
posted @ 2021-07-14 10:52 neuralNerd
阅读(39)
评论(0)
推荐(0)
吴恩达-协同过滤
摘要: 协同过滤-推荐算法的一种,特点是可以自我学习合适的特征 核心思想在于同步更新权重以及特征本身 低轶矩阵分解: 如果用户没有对此object评级会出现不推荐的现象,为解决这个问题:
阅读全文
posted @ 2021-07-14 08:52 neuralNerd
阅读(73)
评论(0)
推荐(0)
2021年7月13日
吴恩达-异常分析
摘要: 1.核心概念利用正态分布求解每一个feature的密度概率 正态分布(高斯分布): 对于每一个样本x: 设定一个threshold,其中对于样本x如果p(x)<threshold,则为异常 当正样本特别少负样本特别多(20正,10000负),此时如果用supervised learning,负样本占
阅读全文
posted @ 2021-07-13 11:31 neuralNerd
阅读(45)
评论(0)
推荐(0)
吴恩达-特征缩放(feature scaling)和PCA降维
摘要: X1-特征1:样本x1待缩放的特征数据 u1:X1-Xn(所有样本) 特征1的均值 缩放方法:(X1-特征1-u)/(max-特征1-min-特征1 or standard deviation) 好处: 1.加快梯度下降速度(等高线变得更平滑(更圆),下降更快) 2.方便降维操作 降维(Princi
阅读全文
posted @ 2021-07-13 10:46 neuralNerd
阅读(137)
评论(0)
推荐(0)
上一页
1
2
3
下一页
公告