会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
努力奋斗的小墨鱼专栏
不要努力成为一个成功的人,而要努力成为一个有价值的人!
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
···
19
下一页
2018年3月20日
Deep Reinforcement Learning: Pong from Pixels
摘要: 这是一篇迟来很久的关于增强学习(Reinforcement Learning, RL)博文。增强学习最近非常火!你一定有所了解,现在的计算机能不但能够被全自动地训练去玩儿ATARI(译注:一种游戏机)游戏(直接输入游戏的原生的像素数据),还能击败围棋的世界冠军、模拟四...
阅读全文
posted @ 2018-03-20 11:33 曾先森在努力
阅读(478)
评论(0)
推荐(0)
2018年3月8日
[TensorFlow] Creating Custom Estimators in TensorFlow
摘要: Welcome to Part 3 of a blog series that introduces TensorFlow Datasets and Estimators. Part 1 focused on pre-made Estimators, while Pa...
阅读全文
posted @ 2018-03-08 19:22 曾先森在努力
阅读(337)
评论(0)
推荐(0)
[TensorFlow] Introducing TensorFlow Feature Columns
摘要: Welcome to Part 2 of a blog series that introduces TensorFlow Datasets and Estimators. We're devoting this article to feature columns—...
阅读全文
posted @ 2018-03-08 19:20 曾先森在努力
阅读(246)
评论(0)
推荐(0)
[TensorFlow] Introduction to TensorFlow Datasets and Estimators
摘要: Datasets and Estimators are two key TensorFlow features you should use:Datasets: The best practice way of creating input pipelines (th...
阅读全文
posted @ 2018-03-08 19:18 曾先森在努力
阅读(299)
评论(0)
推荐(0)
2018年3月7日
[Golang] GoConvey测试框架使用指南
摘要: GoConvey是一款针对Golang的测试框架,可以管理和运行测试用例,同时提供了丰富的断言函数,并支持很多 Web 界面特性。GoConvey 网站 : http://smartystreets.github.io/goconvey/GoConvey 是个相当不错...
阅读全文
posted @ 2018-03-07 17:34 曾先森在努力
阅读(4518)
评论(1)
推荐(0)
2018年2月28日
[机器学习]一个例子完美解释朴素贝叶斯分类器
摘要: 何为“朴素”:属性条件独立性假设如果已知条件不止一个属性,二是多个呢,这个时候贝叶斯公式可以写作上述公式假设特征属性 a1,a2⋯ 相互独立,这也是“朴素”一词的由来。另外,可以看到对于不同的分类,分母都是恒定的,而我们只想找到概率最大的类别,因此可以把分母省略,求条...
阅读全文
posted @ 2018-02-28 18:17 曾先森在努力
阅读(473)
评论(0)
推荐(0)
2018年2月23日
[深度学习]理解RNN, GRU, LSTM 网络
摘要: Recurrent Neural Networks(RNN)人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想...
阅读全文
posted @ 2018-02-23 13:52 曾先森在努力
阅读(996)
评论(0)
推荐(0)
2018年2月9日
[深度学习]CNN--卷积神经网络中用1*1 卷积有什么作用
摘要: 1*1卷积过滤器 和正常的过滤器一样,唯一不同的是它的大小是1*1,没有考虑在前一层局部信息之间的关系。最早出现在 Network In Network的论文中 ,使用1*1卷积是想加深加宽网络结构 ,在Inception网络( Going Deeper with C...
阅读全文
posted @ 2018-02-09 17:12 曾先森在努力
阅读(2026)
评论(0)
推荐(0)
2018年2月7日
Tensorflow学习笔记(2):tf.nn.dropout 与 tf.layers.dropout
摘要: A quick glance through tensorflow/python/layers/core.py and tensorflow/python/ops/nn_ops.pyreveals that tf.layers.dropout is a wrapper...
阅读全文
posted @ 2018-02-07 18:03 曾先森在努力
阅读(2817)
评论(0)
推荐(0)
2018年2月5日
TensorFlow学习笔记(1):variable与get_variable, name_scope()和variable_scope()
摘要: Variabletensorflow中有两个关于variable的op,tf.Variable()与tf.get_variable()下面介绍这两个的区别使用tf.Variable时,如果检测到命名冲突,系统会自己处理。使用tf.get_variable()时,系统不...
阅读全文
posted @ 2018-02-05 12:23 曾先森在努力
阅读(364)
评论(0)
推荐(0)
2018年1月30日
干货 | 请收下这份2018学习清单:150个最好的机器学习,NLP和Python教程
摘要: 机器学习的发展可以追溯到1959年,有着丰富的历史。这个领域也正在以前所未有的速度进化。在之前的一篇文章中,我们讨论过为什么通用人工智能领域即将要爆发。有兴趣入坑ML的小伙伴不要拖延了,时不我待! 在今年秋季开始准备博士项目的时候,我已经精选了一些有关机器学习和NLP...
阅读全文
posted @ 2018-01-30 15:25 曾先森在努力
阅读(382)
评论(0)
推荐(0)
2018年1月29日
[深度学习] 最全优化方法总结比较--SGD,Adagrad,Adadelta,Adam,Adamax,Nadam
摘要: SGD此处的SGD指mini-batch gradient descent,关于batch gradient descent, stochastic gradient descent, 以及 mini-batch gradient descent的具体区别就不细说了。...
阅读全文
posted @ 2018-01-29 16:41 曾先森在努力
阅读(844)
评论(0)
推荐(0)
2018年1月22日
CS231n官方笔记授权翻译总集篇发布
摘要: CS231n简介CS231n的全称是CS231n: Convolutional Neural Networks for Visual Recognition,即面向视觉识别的卷积神经网络。该课程是斯坦福大学计算机视觉实验室推出的课程。需要注意的是,目前大家说CS231...
阅读全文
posted @ 2018-01-22 11:36 曾先森在努力
阅读(307)
评论(0)
推荐(0)
2018年1月19日
方法 | 机器学习(深度学习)通用工作流程
摘要: 机器学习(深度学习)通用工作流程 Deep Learning with Python 4.5节1. 定义问题并装载数据集(Defining the problem and assembling a dataset)首先,你必须定义你手头的问题:输入数据是什么?你希望预...
阅读全文
posted @ 2018-01-19 15:54 曾先森在努力
阅读(456)
评论(0)
推荐(0)
2018年1月14日
资源 | 普通程序员如何自学机器学习
摘要: 机器学习工程师自学指南 本文将会介绍机器学习的方方面面,从简单的线性回归到最新的神经网络,你不仅仅能学会如何使用它们,并且还能从零进行构建。 以下内容以计算机视觉为导向,这是学习一般知识的最快方法,并且你从中获得的经验可以很容易地迁移到机器学习的其他领...
阅读全文
posted @ 2018-01-14 20:10 曾先森在努力
阅读(479)
评论(0)
推荐(0)
2018年1月8日
资源 | 深度学习课程入门与介绍
摘要: 【1】Andrew NG Deep Learning.ai http://deeplearning.ai/网易云课堂(中文字幕):http://mooc.study.163.com/smartSpec/detail/1001319001.htm推荐理由:Andrew ...
阅读全文
posted @ 2018-01-08 15:06 曾先森在努力
阅读(407)
评论(0)
推荐(0)
2018年1月2日
理解交叉熵(cross_entropy)作为损失函数在神经网络中的作用
摘要: 交叉熵的作用通过神经网络解决多分类问题时,最常用的一种方式就是在最后一层设置n个输出节点,无论在浅层神经网络还是在CNN中都是如此,比如,在AlexNet中最后的输出层有1000个节点: 而即便是ResNet取消了全连接层,也会在最后有一个1000个节点的输出层: 一...
阅读全文
posted @ 2018-01-02 15:11 曾先森在努力
阅读(1033)
评论(0)
推荐(0)
训练神经网络适合使用交叉熵错误率,而不是分类错误率或是均方差
摘要: 一. 二次代价函数的不足对于大多数人来说,犯错是一件让人很不开心的事情。但反过来想,犯错可以让我们意识到自己的不足,然后我们很快就学会下次不能再犯错了。犯的错越多,我们学习进步就越快。同样的,在神经网络训练当中,当神经网络的输出与标签不一样时,也就是神经网络预测错了,...
阅读全文
posted @ 2018-01-02 14:38 曾先森在努力
阅读(699)
评论(0)
推荐(0)
Docker---Run命令
摘要: docker运行在一个独立的隔离的进程中。当用户执行dockerrun,它将启动一个有着独立的文件系统,独立的网络和独立的进程树的进程。基本的docker run命令的格式:docker run [OPTIONS] IMAGE[:TAG] [COMMAND] [AR...
阅读全文
posted @ 2018-01-02 14:28 曾先森在努力
阅读(1070)
评论(0)
推荐(0)
2017年12月18日
跟我一起学习VIM - The Life Changing Editor
摘要: 前两天同事让我在小组内部分享一下VIM,于是我花了一点时间写了个简短的教程。虽然准备有限,但分享过程中大家大多带着一种惊叹的表情,原来编辑器可以这样强大,这算是对我多年来使用VIM的最大鼓舞吧。所以分享结束之后,将这篇简短教程整理一下作为我2014年的第一篇Blog。...
阅读全文
posted @ 2017-12-18 14:16 曾先森在努力
阅读(204)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
···
19
下一页