上一页 1 ··· 27 28 29 30 31 32 33 34 35 ··· 47 下一页
摘要: 知乎上的这个回答超级赞!!!!!!!! 但是不能转载嘤嘤嘤。 https://www.zhihu.com/question/20852004 阅读全文
posted @ 2018-09-13 17:26 marsggbo 阅读(1039) 评论(0) 推荐(0)
摘要: 香港美食记录(物价参考) 香港 美食 Hong Kong 有幸在香港读书,所以有机会品尝当地很多美食,因此将吃过的美食记录下来,也当为以后留个纪念(如果能顺利毕业23333)。 以下美食价格均为港币$,没写价格就是忘了2333。 不停更新…直到毕业离港。 双拼叉烧饭 叉烧饭 猪肚排骨饭 米线+牛肉+ 阅读全文
posted @ 2018-09-13 14:50 marsggbo 阅读(749) 评论(0) 推荐(0)
摘要: 线性代数复习Linear Algebra 线性代数 行列式 行列式的性质记行列式如下:行列式与它的转置行列式相等,即互换行列式的两行(列),行列式变号。推论:如果行列式有两行(列)完全相同,则此行列式为零。即,若,则行列式的某一行(列)中所有的元素都乘以同一个倍数,等于用数乘以此行列式。下图有:。推论:行列式的某一行(列)中所有元素的公因子可以提到行列式符号的外面.行列式中如果有两行(列)元... 阅读全文
posted @ 2018-09-13 12:36 marsggbo 阅读(424) 评论(0) 推荐(0)
摘要: 机器学习中数据读取是很重要的一个环节,TensorFlow也提供了很多实用的方法,为了避免以后时间久了又忘记,所以写下笔记以备日后查看。 最普通的正常情况 首先我们看看最普通的情况: 输出结果 由结果我们可以知道TensorFlow能很好地帮我们自动处理最后一个batch的数据。 datasets. 阅读全文
posted @ 2018-09-07 12:04 marsggbo 阅读(6681) 评论(0) 推荐(3)
摘要: Summary 我的理解就是原本节点和节点之间操作是离散的,因为就是从若干个操作中选择某一个,而作者试图使用softmax和relaxation(松弛化)将操作连续化,所以模型结构搜索的任务就转变成了对连续变量$α={α^{(i,j)}}$以及$w$的学习。(这里$α$可以理解成the encodi 阅读全文
posted @ 2018-09-05 21:28 marsggbo 阅读(4233) 评论(0) 推荐(0)
摘要: 前言 前段时间更新自己电脑上的tf1.4到1.9,没想到踩了这么多坑。。。特意记录下来希望可以帮到大家 删除旧版本 如果你电脑上没有安装旧版本的tf,就可以忽略这一步。我是因为想要升级到最新版本,所以需要先卸载旧版本。旧版本是用anaconda安装的,卸载很简单,首先进入安装tf的环境,我的环境是“ 阅读全文
posted @ 2018-08-13 19:27 marsggbo 阅读(15145) 评论(0) 推荐(1)
摘要: Summary 本文提出超越神经架构搜索(NAS)的高效神经架构搜索(ENAS),这是一种经济的自动化模型设计方法,通过强制所有子模型共享权重从而提升了NAS的效率,克服了NAS算力成本巨大且耗时的缺陷,GPU运算时间缩短了1000倍以上。在Penn Treebank数据集上,ENAS实现了55.8 阅读全文
posted @ 2018-08-07 11:26 marsggbo 阅读(3672) 评论(0) 推荐(1)
摘要: Title 文章标题 Summary 写完笔记之后最后填,概述文章的内容,以后查阅笔记的时候先看这一段。 Research Objective 作者的研究目标 Problem Statement 问题陈述,要解决什么问题? Method(s) 解决问题的方法/算法是什么? Evaluation 作者 阅读全文
posted @ 2018-08-05 15:56 marsggbo 阅读(1109) 评论(0) 推荐(0)
摘要: 定义 无偏估计 :估计量的均值等于真实值,即具体每一次估计值可能大于真实值,也可能小于真实值,而不能总是大于或小于真实值(这就产生了系统误差)。 估计量评价的标准 (1) 无偏性 如上述 (2) 有效性 有效性是指估计量与总体参数的离散程度。如果两个估计量都是无偏的,那么离散程度较小的估计量相对而言 阅读全文
posted @ 2018-08-04 10:15 marsggbo 阅读(2364) 评论(0) 推荐(0)
摘要: 在计算loss的时候,最常见的一句话就是 tf.nn.softmax_cross_entropy_with_logits ,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, 阅读全文
posted @ 2018-08-03 17:30 marsggbo 阅读(858) 评论(0) 推荐(0)
上一页 1 ··· 27 28 29 30 31 32 33 34 35 ··· 47 下一页