2020年5月16日
摘要:
为了让Jupyter Notebook支持虚拟运行环境,需要在Anaconda里安装一个插件。 回到终端下面,退出目前正在运行的Jupyter Notebook Server,然后执行: 再重新开启Jupyter Notebook: 这下我们就能看到差别了——除了最新安装设定的tfpy3外,之前用A
阅读全文
posted @ 2020-05-16 16:46
一抹烟霞
阅读(733)
推荐(0)
摘要:
这玩意儿是因为你在Linux下没有安装因特尔的图形固件。而这个固件这两年因特尔已经发布了。所以我们只需要去下载就好了。 首先去到这个网址,你会看到很多固件的选择项,你选择自己缺的那个点击进去。 https://git.kernel.org/pub/scm/linux/kernel/git/firmw
阅读全文
posted @ 2020-05-16 01:50
一抹烟霞
阅读(956)
推荐(0)
2020年5月13日
摘要:
https://keras.io/zh/
阅读全文
posted @ 2020-05-13 22:46
一抹烟霞
阅读(215)
推荐(0)
2020年5月12日
摘要:
分离路径和文件名: os.path.split() 区分文件的名字和后缀: os.path.splitext() import os file_path = "D:/test/test.py" (filepath, tempfilename) = os.path.split(file_path) (
阅读全文
posted @ 2020-05-12 22:55
一抹烟霞
阅读(3500)
推荐(0)
摘要:
梯度下降优化算法一、简介二、梯度下降方法2.1 批量梯度下降法BGD2.2 随机梯度下降法SGD2.3 小批量梯度下降法MBGD三、传统梯度下降法面临的挑战四、改进的梯度下降算法4.1 Momentum4.2 Nesterov accelerated gradient4.3 Adagrad4.4 R
阅读全文
posted @ 2020-05-12 11:45
一抹烟霞
阅读(826)
推荐(0)
2020年5月10日
posted @ 2020-05-10 18:11
一抹烟霞
阅读(236)
推荐(0)
摘要:
过拟合一、定义二、过拟合的解决方案2.1 DropOut2.2 L2 正则化2.3 L1 正则化2.4 最⼤范数约束 (Max Norm) 一、定义 在训练数据集上的准确率很⾼,但是在测试集上的准确率⽐较低 二、过拟合的解决方案 2.1 DropOut 假设有一个过拟合的神经网络如下: DropOu
阅读全文
posted @ 2020-05-10 18:04
一抹烟霞
阅读(1888)
推荐(0)
摘要:
文章目录一、梯度消失1.1 定义1.2 梯度消亡(Gradient Vanishing)前提1.3 产生的原因1.4 解决方案二、梯度爆炸2.1 解决方法 一、梯度消失 1.1 定义 神经⽹络靠输⼊端的⽹络层的系数逐渐不再随着训练⽽变化,或者 变化⾮常缓慢。随着⽹络层数增加,这个现象越发明显 1.2
阅读全文
posted @ 2020-05-10 17:17
一抹烟霞
阅读(1841)
推荐(0)
摘要:
损失函数一、定义二、命名三、损失函数的作用3.1 训练方法3.2 损失函数的选取原则四、常用的损失函数4.1 回归Regression问题4.2 分类Classification问题4.2.1 单label问题4.2.2 多label问题 一、定义 在深度学习中,损失函数是用来衡量一组参数的质量的函
阅读全文
posted @ 2020-05-10 14:50
一抹烟霞
阅读(990)
推荐(0)
2020年5月9日
摘要:
假设有两个输入值,一个隐藏节点,一个输出节点,隐藏层和输出层的激活函数都是 sigmoid 。下图描述了这个网络。假设损失函数是平方误差L=1/2(y-y^) 2 一、正向传播 假设我们试着输入一些二分类数据,目标是 y=1。我们从正向传导开始,首先计算输入到隐藏层 h=∑wixi=
阅读全文
posted @ 2020-05-09 22:19
一抹烟霞
阅读(1096)
推荐(0)