会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
不说话的汤姆猫
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
下一页
2017年8月15日
DP 网易内推:合唱团
摘要: 链接:https://www.nowcoder.com/questionTerminal/661c49118ca241909add3a11c96408c8来源:牛客网 [编程题]合唱团 热度指数:18491 时间限制:1秒 空间限制:32768K 算法知识视频讲解 有 n 个学生站成一排,每个学生有
阅读全文
posted @ 2017-08-15 14:28 不说话的汤姆猫
阅读(292)
评论(0)
推荐(0)
2017年7月15日
TFBOY 养成记 一些比较好多文章。
摘要: API解释中文版(简书文章,没事看看): http://www.jianshu.com/p/e3a79eac554f Tensorlfow op辨异:tf.add()与tf.nn.bias_add()区别: http://blog.csdn.net/lanchunhui/article/detail
阅读全文
posted @ 2017-07-15 22:40 不说话的汤姆猫
阅读(225)
评论(0)
推荐(0)
2017年7月3日
机器学习笔记:为什么要对数据进行归一化处理?
摘要: 文章来自知乎,作者hit nlper 忆臻 转自:https://zhuanlan.zhihu.com/p/27627299 在喂给机器学习模型的数据中,对数据要进行归一化的处理。 为什么要进行归一化处理,下面从寻找最优解这个角度给出自己的看法。 例子 假定为预测房价的例子,自变量为面积,房间数两个
阅读全文
posted @ 2017-07-03 23:08 不说话的汤姆猫
阅读(22545)
评论(1)
推荐(3)
机器学习笔记:形象的解释神经网络激活函数的作用是什么?
摘要: 此文转自知乎,哈工大NLPer 忆臻 原出处:https://zhuanlan.zhihu.com/p/25279356 查阅资料和学习,大家对神经网络中激活函数的作用主要集中下面这个观点: 激活函数是用来加入非线性因素的,解决线性模型所不能解决的问题。 下面我分别从这个方面通过例子给出自己的理解~
阅读全文
posted @ 2017-07-03 22:39 不说话的汤姆猫
阅读(5521)
评论(0)
推荐(0)
TFboy养成记 CNN
摘要: 1/先解释下CNN的过程: 首先对一张图片进行卷积,可以有多个卷积核,卷积过后,对每一卷积核对应一个chanel,也就是一张新的图片,图片尺寸可能会变小也可能会不变,然后对这个chanel进行一些pooling操作。 最后pooling输出完成,这个算作一个卷积层。 最后对最后一个pooling结果
阅读全文
posted @ 2017-07-03 11:28 不说话的汤姆猫
阅读(430)
评论(0)
推荐(0)
2017年6月20日
机器学习笔记:核函数的作用简介
摘要: 核函数这个东西并不只是在SVM中得到应用,在很多范围领域中都会得到应用。 在上学期上课的时候虽然提到了核函数,但是当时对 其并没有一个很好的理解。只知道这个可以作用在一些软间隔上面会比较有用。今天趁着宿舍验收,上网在知乎上看了一个解释,感觉非常精妙。 核函数的作用简单的说就是由低维度空间向高维度空间
阅读全文
posted @ 2017-06-20 18:03 不说话的汤姆猫
阅读(3944)
评论(0)
推荐(1)
sklearn的简单使用
摘要: 1 import numpy as np 2 from sklearn import datasets 3 from sklearn.cross_validation import train_test_split 4 from sklearn.neighbors import KNeighbors
阅读全文
posted @ 2017-06-20 17:52 不说话的汤姆猫
阅读(271)
评论(0)
推荐(0)
2017年6月19日
正则化方法:L1和L2 regularization、数据集扩增、dropout(转)
摘要: ps:转的。当时主要是看到一个问题是L1 L2之间有何区别,当时对l1与l2的概念有些忘了,就百度了一下。看完这篇文章,看到那个对W减小,网络结构变得不那么复杂的解释之后,满脑子的6666 >把网络权重W看做为对上一层神经元的一个WX+B的线性函数模拟一个曲线就好。知乎大神真的多。 版权声明:本文为
阅读全文
posted @ 2017-06-19 23:27 不说话的汤姆猫
阅读(326)
评论(0)
推荐(0)
2017年6月18日
TFboy养成记 MNIST Classification (主要是如何计算accuracy)
摘要: 参考:莫烦。 主要是运用的MLP。另外这里用到的是批训练: 这个代码很简单,跟上次的基本没有什么区别。 这里的lossfunction用到的是是交叉熵cross_entropy.可能网上很多形式跟这里的并不一样。 这里一段时间会另开一个栏。专门去写一些机器学习上的一些理论知识。 这里代码主要写一下如
阅读全文
posted @ 2017-06-18 23:17 不说话的汤姆猫
阅读(2437)
评论(0)
推荐(0)
TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum
摘要: referrence: 莫烦视频 先介绍几个函数 1.tf.cast() 英文解释: 也就是说cast的直译,类似于映射,映射到一个你制定的类型。 2.tf.argmax 原型: 含义:返回最大值所在的坐标。(谁给翻译下最后一句???) ps:谁给解释下axis最后一句话? 例子: 3.tf.red
阅读全文
posted @ 2017-06-18 00:36 不说话的汤姆猫
阅读(7584)
评论(0)
推荐(2)
上一页
1
2
3
4
5
下一页
公告