Toriyung

导航

2022年7月26日 #

神经网络中正则化(吴恩达)

摘要: 正则化(regulization)顾名思义,进行调整,以下整理出几个正则化方式 L2正则化 对损失函数J加上一个关于参数ω的范数,用来降低特征值大小 L1范数: 为x向量各个元素绝对值之和。 L2范数: 为x向量各个元素平方和的1/2次方 L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于 阅读全文

posted @ 2022-07-26 16:05 Toriyung 阅读(638) 评论(0) 推荐(1)

神经网络激活函数(非线性化)的作用(吴恩达)

摘要: 当神经元输出a = z = ωX+b时,该隐藏层则是线性的 假如该神经网络每一个隐藏层都是线性的,根据叠加定理,整个神经网络都是线性的(可认为可以等效为一层线性层的网络结构),这样就无法做出非线性的输出。 而非线性层是不满足叠加定理的,即无法进行等效整合,所以需要引入非线性层,即激活函数。 重点:叠 阅读全文

posted @ 2022-07-26 15:56 Toriyung 阅读(259) 评论(0) 推荐(0)

2022年7月17日 #

(推测)复用推挽输出/复用开漏输出 中的复用有什么作用

摘要: 假如PA0端口同时用作普通IO输出和USART1输出 而普通IO需要按照我们的要求规则输出高低电平、而USART1又是不同的规律输出高低电平,那么此时唯一的端口PA0如何实现“同时”满足不同输出? 答案就是极其高速的工作,实现“同一时间”重复使用一个端口,即“复用”一词的由来。 其本质是极高的工作频 阅读全文

posted @ 2022-07-17 23:50 Toriyung 阅读(305) 评论(0) 推荐(0)

2022年7月5日 #

神经网络的反向传播向量化

摘要: 其中dW和db出现1/m的原因,是链式法则中dL/da时,由于损失函数L包含了1/m(因为对所有标签y[i]的损失进行平均),求导时保留1/m 阅读全文

posted @ 2022-07-05 21:28 Toriyung 阅读(45) 评论(0) 推荐(0)

2022年7月4日 #

神经网络的反向传播公式表达(吴恩达)

摘要: 首先要明确的是反向传播的目的 神经网络训练的最终目的,是得到可观的模型参数(如ω,b等)训练参数的方式,就是通过反向传播,使用梯度下降法(一般情况下)改变模型参数。 其原理则是通过最优化损失函数(loss function),即使其导数向0靠近,公式表达为dL/dω,而损失函数L是一个复合函数,则其 阅读全文

posted @ 2022-07-04 22:23 Toriyung 阅读(412) 评论(0) 推荐(0)

神经网络的前向传播公式表达(吴恩达)

摘要: 符号表示 ω为神经元线性函数的参数 b为神经元线性函数的参数 z为神经元的线性函数输出 g为激活函数 a为z输入下g的输出 前向传播 据此,对于第L层神经元,可以表示为如图公式组 阅读全文

posted @ 2022-07-04 21:23 Toriyung 阅读(77) 评论(0) 推荐(0)

2022年7月2日 #

python-装饰器(decorator)

摘要: 背景 假如多个函数内都有着共同的一部分功能(如计时),则可以将该功能分离出来另外调用 python中有着可以直接实现的方法,称之为装饰器(decorator) 具体使用 import time def my_decorator1(func): #装饰器定义 def wrapper(*args): # 阅读全文

posted @ 2022-07-02 22:53 Toriyung 阅读(53) 评论(0) 推荐(0)

2022年6月25日 #

Xmind 强大的思维导图工具安装

摘要: 使用了2020-2022三个版本的破解版XMIND之后,感觉2020的稳很多 百度云盘里有资源 破解方式:解压→安装→破解补丁复制到安装目录下的resources。完成 阅读全文

posted @ 2022-06-25 21:50 Toriyung 阅读(56) 评论(0) 推荐(0)

关于安装Keil5MDK

摘要: 一、 首先确定下载的软件 Keil5C51是面向51单片机开发使用的 Keil5MDK是面向STM32单片机开发使用的 当前下载的是Keil5MDKv5.18.0.0 放在百度云盘 二、下载及破解步骤 2.打开解压后的文件夹,鼠标右击【mdk518】选择【以管理员身份运行】。 3.点击【Next>> 阅读全文

posted @ 2022-06-25 21:37 Toriyung 阅读(1027) 评论(0) 推荐(0)

2022年6月19日 #

上拉电阻的作用和原理解释

摘要: 作用 1 拉高输出电压,提高驱动能力 2 钳住电位,将不定输出钳定为高电位 原理 上拉电阻和芯片内部电阻并联,使得等效内部电阻变小。 参考视频 https://www.bilibili.com/video/BV1W34y1579U?p=1&t=0 阅读全文

posted @ 2022-06-19 23:59 Toriyung 阅读(476) 评论(0) 推荐(0)