摘要: 顶点数组函数可以在一个数组里包含大量的与顶点相关的数据,并且可以减少函数的调用。使用顶点数组需要先启用顶点数组功能,使用glEnableClientState函数启用顶点数组,参数可以是GL_VERTEX_ARRAY(顶点数据)和GL_COLOR_ARRAY(颜色数组... 阅读全文
posted @ 2016-11-23 21:50 未雨愁眸 阅读(221) 评论(0) 推荐(0)
摘要: 0. MinGW MinGW:Windows 下的 g++等linux 下的编译工具;Anaconda 下 MinGW 的安装(进行 windows cmd 界面):conda install mingw 会将 mingw 安装在 anaconda 的目录下;1. ... 阅读全文
posted @ 2016-11-23 21:40 未雨愁眸 阅读(113) 评论(0) 推荐(0)
摘要: 0. MinGW MinGW:Windows 下的 g++等linux 下的编译工具;Anaconda 下 MinGW 的安装(进行 windows cmd 界面):conda install mingw 会将 mingw 安装在 anaconda 的目录下;1. ... 阅读全文
posted @ 2016-11-23 21:40 未雨愁眸 阅读(142) 评论(0) 推荐(0)
摘要: 从 Matlab 2013版本开始,matlab 将可以直接调用 gpu 进行并行计算,而不再需要安装 GPUmat 工具箱;随机化:old:rand(”)/randn(”, ),(’seed’, ‘state’, or ‘twister’)new:rng() ... 阅读全文
posted @ 2016-11-23 18:19 未雨愁眸 阅读(185) 评论(0) 推荐(0)
摘要: 从 Matlab 2013版本开始,matlab 将可以直接调用 gpu 进行并行计算,而不再需要安装 GPUmat 工具箱;随机化:old:rand(”)/randn(”, ),(’seed’, ‘state’, or ‘twister’)new:rng() ... 阅读全文
posted @ 2016-11-23 18:19 未雨愁眸 阅读(256) 评论(0) 推荐(0)
摘要: 0. benchmarkGitHub - pascanur/DeepLearningBenchmarks1. 深度学习模型的计算MLP & CNN: Large matrix-matrix multiplications dominate in the MLP exa... 阅读全文
posted @ 2016-11-23 18:16 未雨愁眸 阅读(196) 评论(0) 推荐(0)
摘要: 0. benchmarkGitHub - pascanur/DeepLearningBenchmarks1. 深度学习模型的计算MLP & CNN: Large matrix-matrix multiplications dominate in the MLP exa... 阅读全文
posted @ 2016-11-23 18:16 未雨愁眸 阅读(107) 评论(0) 推荐(0)
摘要: 样本集的简单封装D = (numpy.random.randn(N, d), numpy.random.randint(low=0, high=2, size=(N, ))) # D[0] ⇒ X # D[1] ⇒ y1. One Hot Encoder ... 阅读全文
posted @ 2016-11-23 17:05 未雨愁眸 阅读(77) 评论(0) 推荐(0)
摘要: 样本集的简单封装D = (numpy.random.randn(N, d), numpy.random.randint(low=0, high=2, size=(N, ))) # D[0] ⇒ X # D[1] ⇒ y1. One Hot Encoder ... 阅读全文
posted @ 2016-11-23 17:05 未雨愁眸 阅读(108) 评论(0) 推荐(0)
摘要: brevity is the soul of wit. —— 言贵在简;如果使用的是某个库,或者框架,就使用框架、库内的函数,而不要自己再单独实现;比如求均值,显然使用 T.mean(xent) 或者 xent.mean(),而不是相加求和再平均; ... 阅读全文
posted @ 2016-11-23 13:04 未雨愁眸 阅读(123) 评论(0) 推荐(0)
摘要: brevity is the soul of wit. —— 言贵在简;如果使用的是某个库,或者框架,就使用框架、库内的函数,而不要自己再单独实现;比如求均值,显然使用 T.mean(xent) 或者 xent.mean(),而不是相加求和再平均; ... 阅读全文
posted @ 2016-11-23 13:04 未雨愁眸 阅读(117) 评论(0) 推荐(0)
摘要: 模型对应的数学公式,公式中往往有待学习得到的参数,因此在进行训练或者学习时,首先初始化这部分参数(0 或标准正太分布); 学习之前的初始化:initial model;学习完成之后的模型:final model;算法则是一套处理的流程; 引入新的记号(变量);对参数进... 阅读全文
posted @ 2016-11-23 11:42 未雨愁眸 阅读(468) 评论(0) 推荐(0)
摘要: 模型对应的数学公式,公式中往往有待学习得到的参数,因此在进行训练或者学习时,首先初始化这部分参数(0 或标准正太分布); 学习之前的初始化:initial model;学习完成之后的模型:final model;算法则是一套处理的流程; 引入新的记号(变量);对参数进... 阅读全文
posted @ 2016-11-23 11:42 未雨愁眸 阅读(885) 评论(0) 推荐(0)
摘要: 1. 正则化系数与最速下降的步长ℓ(W,b)=−1N∑iNy(i)logp(i)+(1−y(i))log(1−p(i))这里对全局的损失之所以取均值的原因在于,是为了解耦(decouple)后续的对权值矩阵的正则化系数以及 SGD 的步长; 阅读全文
posted @ 2016-11-23 11:02 未雨愁眸 阅读(225) 评论(0) 推荐(0)
摘要: 1. 正则化系数与最速下降的步长ℓ(W,b)=−1N∑iNy(i)logp(i)+(1−y(i))log(1−p(i))这里对全局的损失之所以取均值的原因在于,是为了解耦(decouple)后续的对权值矩阵的正则化系数以及 SGD 的步长; 阅读全文
posted @ 2016-11-23 11:02 未雨愁眸 阅读(192) 评论(0) 推荐(0)