会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
禹一
博客园
首页
新随笔
联系
订阅
管理
2019年8月1日
鲁迅《热风》
摘要: 愿中国青年都摆脱冷气,只是向上走,不必听自暴自弃者流的话。能做事的做事,能发声的发声,有一分热,发一分光,就令萤火抽一般,也可以在黑暗里发一点光,不必等候炬火。此后如竟没有炬火,我便是唯一的光。 倘若有了炬火,出了太阳,我们自然心悦诚服地消失,不但毫无不平,而且还要随喜赞美这炬火或太阳,因为他照亮了
阅读全文
posted @ 2019-08-01 14:41 禹一
阅读(4809)
评论(0)
推荐(0)
2018年12月16日
斯坦福大学11月份的论文《NECST:Nerual Joint Source-Channel Coding》
摘要: 文章简要概括:文中提出了一种神经纠错和信源修剪码(NECST:Neural Error Correcting and Source Trimming),即通过端到端的方式去学习联合编码和解码。 针对于如何将图像数据编码为比特流,使得其能够在带噪通信信道中进行可靠地传输这一问题,香农的结论是对于一个无
阅读全文
posted @ 2018-12-16 00:30 禹一
阅读(648)
评论(0)
推荐(0)
2018年7月14日
Win10(64位)下安装Tensorflow GPU
摘要: 《Python 3.6 + Tensorflow GPU 1.4.0 + CUDA 8.0 + cuDNN 6.0》 没有Pycharm的先安装Pycharm。 1、Python下载地址:https://www.python.org/downloads/release/python-364/ 拉到最
阅读全文
posted @ 2018-07-14 20:09 禹一
阅读(225)
评论(0)
推荐(0)
2018年6月21日
关于epoch、iteration和batchsize
摘要: (1)iteration:表示1次迭代,每次迭代更新1次网络结构的参数; (2)batch_size:1次迭代所使用的样本量; (3)epoch:1个epoch表示过了1遍训练集中的所有样本。【e(一)poch(波)】 在深度学习领域中,常用随机梯度下降算法(Stochastic Gradient
阅读全文
posted @ 2018-06-21 14:45 禹一
阅读(182)
评论(0)
推荐(0)
2018年6月16日
感悟
摘要: 人做任何一件事情都不仅仅于这件事情本身,你其实是在构建两种结构,第一种是内心的认知结构,第二种是外在的社会关系。 《罗辑思维》
阅读全文
posted @ 2018-06-16 19:27 禹一
阅读(107)
评论(0)
推荐(0)
公告