随笔分类 - DL
深度学习入门
摘要:这里,吴恩达老师给了两种实现细节,带(1-beta)和不带的,效果都还可以
阅读全文
摘要:首先要知道需要安装哪个类型的显卡驱动,可以使用如下指令查看 sudo add-apt-repository ppa:graphics-drivers在#current那一栏中找到显卡驱动型号,使用的是1060显卡,下面会出现nvidia-387,1080是nvida-390,看完型号后按下enter
阅读全文
摘要:不想整理代码了。先给个结果图: loss这么大,结果这么准确。我也搞不懂是怎么肥事呀。 AUC也没什么问题。暂时认为是好的吧。 下面是源码dataUtil用来对数据预处理: import pandas as pd import numpy as np def load_csv(filename):
阅读全文
摘要:机器学习离不开数据,数据分析离不开pandas。昨天感受了一下,真的方便。按照一般的使用过程,将pandas的常用方法说明一下。 首先,我们拿到一个excel表,我们将之另存为csv文件。因为文件是实验室的资源,我就不分享了。 首先是文件读取 我们调用read_csv文件可以直接读取csv文件。其返
阅读全文
摘要:使用tf.train.Saver()保存到checkpoint文件,我们可以用tensorflow查看。
阅读全文
摘要:我们通过tf.train.Saver()来保存和重载变量 实现是保存 通过调用saver的save方法来保存,返回一个str,代表了路径。 然后展示的是我们保存部分变量和重载: 如果Saver中不传入参数,则会将所有的变量都保存。传入字典,则会按照字典中的key-value对变量进行保存。 对于不需
阅读全文
摘要:代码写的再好,没有图别人也不知道好在哪。 我们在使用tensorflow的时候,使用tensorboard可以直观的看到我们的网络结构,甚至它可以计算卷积和池化的维度(我不知道是不是因为我已经运行了一遍,所以维度显示出来了) 首先是开启tensorboard的代码: 因为我用pip下载了tensor
阅读全文
摘要:算的的上是自己搭建的第一个卷积神经网络。网络结构比较简单。 输入为单通道的mnist数据集。它是一张28*28,包含784个特征值的图片 我们第一层输入,使用5*5的卷积核进行卷积,输出32张特征图,然后使用2*2的池化核进行池化 输出14*14的图片 第二层 使用5*5的卷积和进行卷积,输出64张
阅读全文
摘要:从昨天晚上,到今天上午12点半左右吧,一直在调这个代码。最开始训练的时候,老是说loss:nan 查了资料,因为是如果损失函数使用交叉熵,如果预测值为0或负数,求log的时候会出错。需要对预测结果进行约束。 有一种约束方法是:y_predict=max(y,(0,1e-18])。也就是将小于0的数值
阅读全文
摘要:不做卷积,只是增加多层神经网络层。 #-*- encoding:utf-8 -*- #!/usr/local/env python import numpy as np import tensorflow as tf from tensorflow.examples.tutorials.mnist
阅读全文
摘要:我们不做卷积。直接将x输入到网络中去。最后用softmax作为激活函数 大概结构,我这里没法上传,等我回去在传。
阅读全文
摘要:学习了tensorflow的线性回归。 首先是一个sklearn中makeregression数据集,对其进行线性回归训练的例子。来自腾讯云实验室 import tensorflow as tf import numpy as np class linearRegressionModel: def
阅读全文
摘要:tf.Variable __init__( initial_value=None, trainable=True, collections=None, validate_shape=True, caching_device=None, name=None, variable_def=None, dt
阅读全文
摘要:tf.square square( x, name=None ) 功能说明: 计算张量对应元素平方 参数列表: 参数名必选类型说明 x 是 张量 是 half, float32, float64, int32, int64, complex64, complex128 其中一种类型 name 否 s
阅读全文
摘要:tf.squared_difference squared_difference( x, y, name=None ) 功能说明: 计算张量 x、y 对应元素差平方 参数列表: 参数名必选类型说明 x 是 张量 是 half, float32, float64, int32, int64, comp
阅读全文
摘要:今天连接到服务器后,安装anaconda。虽然在安装过程中选择将anaconda加入到系统变量中去。而且在 ~/.bashrc 中确实有 export PATH="/home/xnh/anaconda2/bin:$PATH" 这句话。搜索结果都是说,因为用了dash,改成bash就可以了。 http
阅读全文
摘要:tf.reduce_mean reduce_mean( input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None ) 功能说明: 计算张量 input_tensor 平均值 参数列表: 参数名必选类型说明
阅读全文
摘要:tf.nn.bias_add bias_add( value, bias, data_format=None, name=None ) 功能说明: 将偏差项 bias 加到 value 上面,可以看做是 tf.add 的一个特例,其中 bias 必须是一维的,并且维度和 value 的最后一维相同,
阅读全文
摘要:tf.placeholder placeholder( dtype, shape=None, name=None ) 功能说明: 是一种占位符,在执行时候需要为其提供数据 参数列表: 参数名必选类型说明 dtype 是 dtype 占位符数据类型 shape 否 1 维整形张量或 array 占位符
阅读全文

浙公网安备 33010602011771号