摘要: # 0x00 Typora是一款强大的markdown编辑器,它可以让你轻松地写出美观的文档。但是其一直是不开源的,而且现在也已经开始收费了。所以本着学习探索的精神去逆向看看~ # 0x01 众所周知Typora是基于electron+reacta开发的,所以先看看js代码~ ![image](ht 阅读全文
posted @ 2023-07-08 20:24 花嫁sama 阅读(1505) 评论(1) 推荐(1)
摘要: Ctrl + d 删除一个字符,相当于通常的Delete键(命令行若无所有字符,则相当于exit;处理多行标准输入时也表示eof) Ctrl + h 退格删除一个字符,相当于通常的Backspace键 Ctrl + u 删除光标之前到行首的字符 Ctrl + k 删除光标之前到行尾的字符 Ctrl 阅读全文
posted @ 2022-06-22 13:20 花嫁sama 阅读(799) 评论(0) 推荐(0)
摘要: 正交化(Orthogonalization) 正交化的概念是指,你可以想出一个维度,这个维度你想做的是控制转向角,还有另一个维度来控制你的速度,那么你就需要一个旋钮尽量只控制转向角,另一个旋钮,在这个开车的例子里其实是油门和刹车控制了你的速度。但如果你有一个控制旋钮将两者混在一起,比如说这样一个控制 阅读全文
posted @ 2021-12-14 17:55 花嫁sama 阅读(64) 评论(0) 推荐(0)
摘要: 笔记: Batch Normalization及其反向传播 重点: 在神经网络中,网络是分层的,可以把每一层视为一个单独的分类器,将一个网络看成分类器的串联。这就意味着,在训练过程中,随着某一层分类器的参数的改变,其输出的分布也会改变,这就导致下一层的输入的分布不稳定。分类器需要不断适应新的分布,这 阅读全文
posted @ 2021-12-09 11:02 花嫁sama 阅读(439) 评论(0) 推荐(0)
摘要: Mini-batch 梯度下降(Mini-batch gradient descent) 使用batch梯度下降法,一次遍历训练集只能让你做一个梯度下降,使用mini-batch梯度下降法,一次遍历训练集,能让你做样本数/每组个数个梯度下降。 使用batch梯度下降法时,每次迭代你都需要历遍整个训练 阅读全文
posted @ 2021-12-08 11:35 花嫁sama 阅读(125) 评论(0) 推荐(0)
摘要: ''' Author: huajia Date: 2021-11-26 09:42:03 LastEditors: huajia LastEditTime: 2021-12-01 17:30:58 Description: 略略略 ''' import numpy as np import matp 阅读全文
posted @ 2021-12-01 16:36 花嫁sama 阅读(66) 评论(0) 推荐(0)
摘要: ''' Author: huajia Date: 2021-11-22 14:57:01 LastEditors: huajia LastEditTime: 2021-12-01 12:53:56 Description: 略略略 ''' import numpy as np import math 阅读全文
posted @ 2021-12-01 12:57 花嫁sama 阅读(49) 评论(0) 推荐(0)
摘要: #深度学习 吴恩达 课后作业 中文版 ####deep learning 传送门:点我 阅读全文
posted @ 2021-11-25 16:53 花嫁sama 阅读(83) 评论(0) 推荐(0)
摘要: ''' Author: huajia Date: 2021-11-22 14:57:01 LastEditors: huajia LastEditTime: 2021-11-25 09:33:43 Description: 略略略 ''' import numpy as np import math 阅读全文
posted @ 2021-11-23 14:21 花嫁sama 阅读(53) 评论(0) 推荐(0)
摘要: 学习目录 吴恩达老师ml,dl笔记的链接:点我 吴恩达深度学习deeplearning.ai视频:点我 李沐大神的教程地址:点我 亚马逊良心学习实验平台: 点我 王木头学科学: 点我 一:损失函数,代价函数,目标函数定义 首先给出结论: 损失函数(Loss Function )是定义在单个样本上的, 阅读全文
posted @ 2021-11-12 10:40 花嫁sama 阅读(41) 评论(0) 推荐(0)