会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
花嫁sama
博客园
首页
新随笔
联系
订阅
管理
1
2
下一页
2023年7月8日
mac Typora最新版逆向破解
摘要: # 0x00 Typora是一款强大的markdown编辑器,它可以让你轻松地写出美观的文档。但是其一直是不开源的,而且现在也已经开始收费了。所以本着学习探索的精神去逆向看看~ # 0x01 众所周知Typora是基于electron+reacta开发的,所以先看看js代码~ 
评论(1)
推荐(1)
2022年6月22日
mac shell终端命令行快捷键
摘要: Ctrl + d 删除一个字符,相当于通常的Delete键(命令行若无所有字符,则相当于exit;处理多行标准输入时也表示eof) Ctrl + h 退格删除一个字符,相当于通常的Backspace键 Ctrl + u 删除光标之前到行首的字符 Ctrl + k 删除光标之前到行尾的字符 Ctrl
阅读全文
posted @ 2022-06-22 13:20 花嫁sama
阅读(799)
评论(0)
推荐(0)
2021年12月14日
第三门课 结构化机器学习项目-笔记
摘要: 正交化(Orthogonalization) 正交化的概念是指,你可以想出一个维度,这个维度你想做的是控制转向角,还有另一个维度来控制你的速度,那么你就需要一个旋钮尽量只控制转向角,另一个旋钮,在这个开车的例子里其实是油门和刹车控制了你的速度。但如果你有一个控制旋钮将两者混在一起,比如说这样一个控制
阅读全文
posted @ 2021-12-14 17:55 花嫁sama
阅读(64)
评论(0)
推荐(0)
2021年12月9日
Batch Normalization及其反向传播及bn层的作用
摘要: 笔记: Batch Normalization及其反向传播 重点: 在神经网络中,网络是分层的,可以把每一层视为一个单独的分类器,将一个网络看成分类器的串联。这就意味着,在训练过程中,随着某一层分类器的参数的改变,其输出的分布也会改变,这就导致下一层的输入的分布不稳定。分类器需要不断适应新的分布,这
阅读全文
posted @ 2021-12-09 11:02 花嫁sama
阅读(439)
评论(0)
推荐(0)
2021年12月8日
吴恩达优化算法 (Optimization algorithms)笔记
摘要: Mini-batch 梯度下降(Mini-batch gradient descent) 使用batch梯度下降法,一次遍历训练集只能让你做一个梯度下降,使用mini-batch梯度下降法,一次遍历训练集,能让你做样本数/每组个数个梯度下降。 使用batch梯度下降法时,每次迭代你都需要历遍整个训练
阅读全文
posted @ 2021-12-08 11:35 花嫁sama
阅读(125)
评论(0)
推荐(0)
2021年12月1日
搭建神经网络
摘要: ''' Author: huajia Date: 2021-11-26 09:42:03 LastEditors: huajia LastEditTime: 2021-12-01 17:30:58 Description: 略略略 ''' import numpy as np import matp
阅读全文
posted @ 2021-12-01 16:36 花嫁sama
阅读(66)
评论(0)
推荐(0)
再缕一下正反传播,有点乱之前(麻了)
摘要: ''' Author: huajia Date: 2021-11-22 14:57:01 LastEditors: huajia LastEditTime: 2021-12-01 12:53:56 Description: 略略略 ''' import numpy as np import math
阅读全文
posted @ 2021-12-01 12:57 花嫁sama
阅读(49)
评论(0)
推荐(0)
2021年11月25日
深度学习-吴恩达-课后作业-中文版~
摘要: #深度学习 吴恩达 课后作业 中文版 ####deep learning 传送门:点我
阅读全文
posted @ 2021-11-25 16:53 花嫁sama
阅读(83)
评论(0)
推荐(0)
2021年11月23日
一些函数图像
摘要: ''' Author: huajia Date: 2021-11-22 14:57:01 LastEditors: huajia LastEditTime: 2021-11-25 09:33:43 Description: 略略略 ''' import numpy as np import math
阅读全文
posted @ 2021-11-23 14:21 花嫁sama
阅读(53)
评论(0)
推荐(0)
2021年11月12日
随便记记
摘要: 学习目录 吴恩达老师ml,dl笔记的链接:点我 吴恩达深度学习deeplearning.ai视频:点我 李沐大神的教程地址:点我 亚马逊良心学习实验平台: 点我 王木头学科学: 点我 一:损失函数,代价函数,目标函数定义 首先给出结论: 损失函数(Loss Function )是定义在单个样本上的,
阅读全文
posted @ 2021-11-12 10:40 花嫁sama
阅读(41)
评论(0)
推荐(0)
1
2
下一页
公告