会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
禹一
博客园
首页
新随笔
联系
订阅
管理
2019年8月1日
鲁迅《热风》
摘要: 愿中国青年都摆脱冷气,只是向上走,不必听自暴自弃者流的话。能做事的做事,能发声的发声,有一分热,发一分光,就令萤火抽一般,也可以在黑暗里发一点光,不必等候炬火。此后如竟没有炬火,我便是唯一的光。 倘若有了炬火,出了太阳,我们自然心悦诚服地消失,不但毫无不平,而且还要随喜赞美这炬火或太阳,因为他照亮了
阅读全文
posted @ 2019-08-01 14:41 禹一
阅读(4792)
评论(0)
推荐(0)
2018年12月16日
斯坦福大学11月份的论文《NECST:Nerual Joint Source-Channel Coding》
摘要: 文章简要概括:文中提出了一种神经纠错和信源修剪码(NECST:Neural Error Correcting and Source Trimming),即通过端到端的方式去学习联合编码和解码。 针对于如何将图像数据编码为比特流,使得其能够在带噪通信信道中进行可靠地传输这一问题,香农的结论是对于一个无
阅读全文
posted @ 2018-12-16 00:30 禹一
阅读(636)
评论(0)
推荐(0)
2018年7月14日
Win10(64位)下安装Tensorflow GPU
摘要: 《Python 3.6 + Tensorflow GPU 1.4.0 + CUDA 8.0 + cuDNN 6.0》 没有Pycharm的先安装Pycharm。 1、Python下载地址:https://www.python.org/downloads/release/python-364/ 拉到最
阅读全文
posted @ 2018-07-14 20:09 禹一
阅读(216)
评论(0)
推荐(0)
2018年6月21日
关于epoch、iteration和batchsize
摘要: (1)iteration:表示1次迭代,每次迭代更新1次网络结构的参数; (2)batch_size:1次迭代所使用的样本量; (3)epoch:1个epoch表示过了1遍训练集中的所有样本。【e(一)poch(波)】 在深度学习领域中,常用随机梯度下降算法(Stochastic Gradient
阅读全文
posted @ 2018-06-21 14:45 禹一
阅读(175)
评论(0)
推荐(0)
2018年6月16日
感悟
摘要: 人做任何一件事情都不仅仅于这件事情本身,你其实是在构建两种结构,第一种是内心的认知结构,第二种是外在的社会关系。 《罗辑思维》
阅读全文
posted @ 2018-06-16 19:27 禹一
阅读(102)
评论(0)
推荐(0)
公告
昵称:
禹一
园龄:
7年
粉丝:
1
关注:
1
+加关注
<
2025年6月
>
日
一
二
三
四
五
六
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
1
2
3
4
5
6
7
8
9
10
11
12
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
随笔档案
2019年8月(1)
2018年12月(1)
2018年7月(1)
2018年6月(2)
阅读排行榜
1. 鲁迅《热风》(4792)
2. 斯坦福大学11月份的论文《NECST:Nerual Joint Source-Channel Coding》(636)
3. Win10(64位)下安装Tensorflow GPU(216)
4. 关于epoch、iteration和batchsize(175)
5. 感悟(102)
点击右上角即可分享