会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
marsggbo
互道晚安,王者峡谷见
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
27
28
29
30
31
32
33
34
35
···
46
下一页
2018年9月7日
Tensorflow datasets.shuffle repeat batch方法
摘要: 机器学习中数据读取是很重要的一个环节,TensorFlow也提供了很多实用的方法,为了避免以后时间久了又忘记,所以写下笔记以备日后查看。 最普通的正常情况 首先我们看看最普通的情况: 输出结果 由结果我们可以知道TensorFlow能很好地帮我们自动处理最后一个batch的数据。 datasets.
阅读全文
posted @ 2018-09-07 12:04 marsggbo
阅读(6673)
评论(0)
推荐(3)
2018年9月5日
论文笔记系列-DARTS: Differentiable Architecture Search
摘要: Summary 我的理解就是原本节点和节点之间操作是离散的,因为就是从若干个操作中选择某一个,而作者试图使用softmax和relaxation(松弛化)将操作连续化,所以模型结构搜索的任务就转变成了对连续变量$α={α^{(i,j)}}$以及$w$的学习。(这里$α$可以理解成the encodi
阅读全文
posted @ 2018-09-05 21:28 marsggbo
阅读(4226)
评论(0)
推荐(0)
2018年8月13日
Win10安装TensorFlow1.9-GPU版本
摘要: 前言 前段时间更新自己电脑上的tf1.4到1.9,没想到踩了这么多坑。。。特意记录下来希望可以帮到大家 删除旧版本 如果你电脑上没有安装旧版本的tf,就可以忽略这一步。我是因为想要升级到最新版本,所以需要先卸载旧版本。旧版本是用anaconda安装的,卸载很简单,首先进入安装tf的环境,我的环境是“
阅读全文
posted @ 2018-08-13 19:27 marsggbo
阅读(15132)
评论(0)
推荐(1)
2018年8月7日
论文笔记系列-Efficient Neural Architecture Search via Parameter Sharing
摘要: Summary 本文提出超越神经架构搜索(NAS)的高效神经架构搜索(ENAS),这是一种经济的自动化模型设计方法,通过强制所有子模型共享权重从而提升了NAS的效率,克服了NAS算力成本巨大且耗时的缺陷,GPU运算时间缩短了1000倍以上。在Penn Treebank数据集上,ENAS实现了55.8
阅读全文
posted @ 2018-08-07 11:26 marsggbo
阅读(3658)
评论(0)
推荐(1)
2018年8月5日
论文笔记模板
摘要: Title 文章标题 Summary 写完笔记之后最后填,概述文章的内容,以后查阅笔记的时候先看这一段。 Research Objective 作者的研究目标 Problem Statement 问题陈述,要解决什么问题? Method(s) 解决问题的方法/算法是什么? Evaluation 作者
阅读全文
posted @ 2018-08-05 15:56 marsggbo
阅读(1104)
评论(0)
推荐(0)
2018年8月4日
无偏估计
摘要: 定义 无偏估计 :估计量的均值等于真实值,即具体每一次估计值可能大于真实值,也可能小于真实值,而不能总是大于或小于真实值(这就产生了系统误差)。 估计量评价的标准 (1) 无偏性 如上述 (2) 有效性 有效性是指估计量与总体参数的离散程度。如果两个估计量都是无偏的,那么离散程度较小的估计量相对而言
阅读全文
posted @ 2018-08-04 10:15 marsggbo
阅读(2356)
评论(0)
推荐(0)
2018年8月3日
【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
摘要: 在计算loss的时候,最常见的一句话就是 tf.nn.softmax_cross_entropy_with_logits ,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits,
阅读全文
posted @ 2018-08-03 17:30 marsggbo
阅读(854)
评论(0)
推荐(0)
2018年7月27日
论文笔记系列-Simple And Efficient Architecture Search For Neural Networks
摘要: 摘要 本文提出了一种新方法,可以基于简单的爬山过程自动搜索性能良好的CNN架构,该算法运算符应用网络态射,然后通过余弦退火进行短期优化运行。 令人惊讶的是,这种简单的方法产生了有竞争力的结果,尽管只需要与训练单个网络相同数量级的资源。例如使用该算法,在单个GPU上训练12个小时就可以将CIFAR 1
阅读全文
posted @ 2018-07-27 09:28 marsggbo
阅读(1300)
评论(0)
推荐(0)
2018年7月24日
[转载] 什么是P问题、NP问题和NPC问题
摘要: # 总结 | Problem | Introduction | | | | | P | 能在**多项式时间**里**找到**一个解决算法 | | NP | 能在**多项式时间**里**验证**一个解是否正确 | | NPC | 1.首先必须是一个**NP问题** 2.所有的NP问题都能**reduc
阅读全文
posted @ 2018-07-24 15:35 marsggbo
阅读(408)
评论(0)
推荐(0)
2018年7月21日
论文笔记系列-Neural Architecture Search With Reinforcement Learning
摘要: 摘要 神经网络在多个领域都取得了不错的成绩,但是神经网络的合理设计却是比较困难的。在本篇论文中,作者使用 递归网络 去省城神经网络的模型描述,并且使用 增强学习 训练RNN,以使得生成得到的模型在验证集上取得最大的准确率。 在 CIFAR 10 数据集上,基于本文提出的方法生成的模型在测试集上得到结
阅读全文
posted @ 2018-07-21 19:11 marsggbo
阅读(2383)
评论(0)
推荐(0)
上一页
1
···
27
28
29
30
31
32
33
34
35
···
46
下一页
公告