pointer network
摘要:https://zhuanlan.zhihu.com/p/73590690 https://www.jianshu.com/p/2ad389e91467 https://blog.csdn.net/weixin_40240670/article/details/86483896 https://st
阅读全文
swin transformer及相关连资料
摘要:swin transformer-1 swin transformer-2 swin transformer-3 Transformer-1 Transformer-2 残差网络(ResNet)-1 批标准化 (Batch Normalization) Attention-1 Attention-2
阅读全文
机器学习-吴恩达-四(神经网络代价函数反向传播计算)
摘要:多分类问题的损失函数 误差反向传播,以及通过误差计算偏导,进而计算损失函数值 随机初始化在神经网络中初始值全为0的化会导致各隐藏层激活函数相等,无法学习更多特征
阅读全文
机器学习-吴恩达-三(非线性假设情况下为什么使用神经网络结构而不是非线性回归)
摘要:非线性假设情况下采用线性回归或者逻辑回归会出现参数暴涨的情况,导致模型庞大。比如图片像素作为变量,参数变并不是w*h ,因为像素点之间不是不相关的,需要考虑变量之间乘积关系,参数数量达到 2^(w*h) 简单网络结构
阅读全文
机器学习-吴恩达-二(欠拟合过拟合、正则化)
摘要:正则化、欠拟合过拟合 正则化在代价函数中加入对每个参数的惩罚变量项可以理解为使得预测函数更加平滑或者边界函数更加平滑,防止由于训练数据少参数多导致的过拟合
阅读全文
机器学习-吴恩达-一(假设函数、线性回归、代价函数、梯度下降、sig函数逻辑回归、决策边界)
摘要:假设函数 线性回归 代价函数 梯度下降 逻辑回归 逻辑回归代价函数 sig函数,为啥要用sig函数映射线性函数,其目的是把函数值映射到0,1之间(二分类值是0和1),且sig函数对0和1有较好模拟性质,想象电压模拟信号转数字信号 映射sig函数实际上就假设函数,h=g(z),z>=0,h>=0.5,
阅读全文