上一页 1 ··· 30 31 32 33 34 35 36 37 38 ··· 92 下一页
  2020年5月16日
摘要: 为了让Jupyter Notebook支持虚拟运行环境,需要在Anaconda里安装一个插件。 回到终端下面,退出目前正在运行的Jupyter Notebook Server,然后执行: 再重新开启Jupyter Notebook: 这下我们就能看到差别了——除了最新安装设定的tfpy3外,之前用A 阅读全文
posted @ 2020-05-16 16:46 一抹烟霞 阅读(733) 评论(0) 推荐(0)
摘要: 这玩意儿是因为你在Linux下没有安装因特尔的图形固件。而这个固件这两年因特尔已经发布了。所以我们只需要去下载就好了。 首先去到这个网址,你会看到很多固件的选择项,你选择自己缺的那个点击进去。 https://git.kernel.org/pub/scm/linux/kernel/git/firmw 阅读全文
posted @ 2020-05-16 01:50 一抹烟霞 阅读(956) 评论(0) 推荐(0)
  2020年5月13日
摘要: https://keras.io/zh/ 阅读全文
posted @ 2020-05-13 22:46 一抹烟霞 阅读(215) 评论(0) 推荐(0)
  2020年5月12日
摘要: 分离路径和文件名: os.path.split() 区分文件的名字和后缀: os.path.splitext() import os file_path = "D:/test/test.py" (filepath, tempfilename) = os.path.split(file_path) ( 阅读全文
posted @ 2020-05-12 22:55 一抹烟霞 阅读(3500) 评论(0) 推荐(0)
摘要: 梯度下降优化算法一、简介二、梯度下降方法2.1 批量梯度下降法BGD2.2 随机梯度下降法SGD2.3 小批量梯度下降法MBGD三、传统梯度下降法面临的挑战四、改进的梯度下降算法4.1 Momentum4.2 Nesterov accelerated gradient4.3 Adagrad4.4 R 阅读全文
posted @ 2020-05-12 11:45 一抹烟霞 阅读(826) 评论(0) 推荐(0)
  2020年5月10日
摘要: 目前比较流行的初始化方式如下: 阅读全文
posted @ 2020-05-10 18:11 一抹烟霞 阅读(236) 评论(0) 推荐(0)
摘要: 过拟合一、定义二、过拟合的解决方案2.1 DropOut2.2 L2 正则化2.3 L1 正则化2.4 最⼤范数约束 (Max Norm) 一、定义 在训练数据集上的准确率很⾼,但是在测试集上的准确率⽐较低 二、过拟合的解决方案 2.1 DropOut 假设有一个过拟合的神经网络如下: DropOu 阅读全文
posted @ 2020-05-10 18:04 一抹烟霞 阅读(1888) 评论(0) 推荐(0)
摘要: 文章目录一、梯度消失1.1 定义1.2 梯度消亡(Gradient Vanishing)前提1.3 产生的原因1.4 解决方案二、梯度爆炸2.1 解决方法 一、梯度消失 1.1 定义 神经⽹络靠输⼊端的⽹络层的系数逐渐不再随着训练⽽变化,或者 变化⾮常缓慢。随着⽹络层数增加,这个现象越发明显 1.2 阅读全文
posted @ 2020-05-10 17:17 一抹烟霞 阅读(1841) 评论(0) 推荐(0)
摘要: 损失函数一、定义二、命名三、损失函数的作用3.1 训练方法3.2 损失函数的选取原则四、常用的损失函数4.1 回归Regression问题4.2 分类Classification问题4.2.1 单label问题4.2.2 多label问题 一、定义 在深度学习中,损失函数是用来衡量一组参数的质量的函 阅读全文
posted @ 2020-05-10 14:50 一抹烟霞 阅读(990) 评论(0) 推荐(0)
  2020年5月9日
摘要: 假设有两个输入值,一个隐藏节点,一个输出节点,隐藏层和输出层的激活函数都是 sigmoid 。下图描述了这个网络。假设损失函数是平方误差L=1/2(y-y^) 2 一、正向传播 假设我们试着输入一些二分类数据,目标是 y=1。我们从正向传导开始,首先计算输入到隐藏层 h=∑​​w​i​​x​i​​= 阅读全文
posted @ 2020-05-09 22:19 一抹烟霞 阅读(1096) 评论(0) 推荐(0)
上一页 1 ··· 30 31 32 33 34 35 36 37 38 ··· 92 下一页

Live2D