摘要:
abate alleviate assuage palliate mitigate
阅读全文
posted @ 2017-05-20 09:41
Shiyu_Huang
阅读(266)
推荐(0)
摘要:
a trifle of a little of a few of a ghost of a trace of
阅读全文
posted @ 2017-05-20 09:16
Shiyu_Huang
阅读(163)
推荐(0)
摘要:
a wealth of many a multitude of a huge amount of a huge number of a lot of lots of a quantity of
阅读全文
posted @ 2017-05-20 09:13
Shiyu_Huang
阅读(163)
推荐(0)
摘要:
该程序会每隔至少1秒进行一次护照状态查询 需要修改passportNo变量为自己的护照号码。 另外需要pip install beautifulsoup4
阅读全文
posted @ 2017-05-19 15:13
Shiyu_Huang
阅读(3773)
推荐(0)
摘要:
\begin{table}[!htbp] !-忽略“美学”标准 h-here t-top b-bottom p-page-of-its-own
阅读全文
posted @ 2017-05-15 20:30
Shiyu_Huang
阅读(8179)
推荐(0)
摘要:
比特币历史: 2008年,比特币论文诞生 2009年1月,第一批比特币诞生 2011年4月,比特币价格第一次达到了1美元 2011年6月,涨到30美元,然后开始跌 2013年1月,4美元 2013年11月末,价格到达1200美元(恐怖!!!),然后开始跌 2017年1月,1000美元 2017年12
阅读全文
posted @ 2017-05-13 10:08
Shiyu_Huang
阅读(2068)
推荐(0)
posted @ 2017-05-13 09:24
Shiyu_Huang
阅读(1589)
推荐(0)
摘要:
1.next http://www.cnblogs.com/sesshoumaru/p/6037922.html 2.getattr getattr(x, 'y') is equivalent to x.y
阅读全文
posted @ 2017-05-10 16:59
Shiyu_Huang
阅读(136)
推荐(0)
摘要:
无偏估计是参数的样本估计量的期望值等于参数的真实值。 一个简单的例子(https://www.zhihu.com/question/22983179/answer/23470969): 比如我要对某个学校一个年级的上千个学生估计他们的平均水平(真实值,上帝才知道的数字),那么我决定抽样来计算。 我抽
阅读全文
posted @ 2017-05-09 10:05
Shiyu_Huang
阅读(3385)
推荐(0)
摘要:
百度百科的解释: 常用核函数: 1.线性核(Linear Kernel): 2.多项式核(Polynomial Kernel): 3.径向基核函数(Radial Basis Function),也叫高斯核(Gaussian Kernel): 还有其他一些偏门核函数:http://blog.csdn.
阅读全文
posted @ 2017-05-09 10:00
Shiyu_Huang
阅读(1629)
推荐(0)
摘要:
决策树介绍:http://www.cnblogs.com/huangshiyu13/p/6126137.html 一些boosting的算法:http://www.cnblogs.com/huangshiyu13/p/6134329.html
阅读全文
posted @ 2017-05-09 09:01
Shiyu_Huang
阅读(409)
推荐(0)
摘要:
import os def fileAppend(filename): myfile = open(filename,'a') myfile.write("####&&&&") myfile.close if __name__ == '__main__': filename = 'test.rmvb' fileAppend(filename) ...
阅读全文
posted @ 2017-05-08 09:52
Shiyu_Huang
阅读(3367)
推荐(0)
摘要:
指数族分布是一大类分布,基本形式为: T(x)是x的充分统计量(能为相应分布提供足够信息的统计量) 为了满足归一化条件,有: 可以看出,当T(x)=x时,e^A(theta)是h(x)的拉普拉斯变换。 指数族分布的例子: 伯努利分布转换成指数族分布形式: 单变量高斯分布的: 多变量高斯分布的: A(
阅读全文
posted @ 2017-05-07 14:18
Shiyu_Huang
阅读(5954)
推荐(1)
摘要:
Monti, Federico, et al. "Geometric deep learning on graphs and manifolds using mixture model CNNs." arXiv preprint arXiv:1611.08402 (2016). 摘要:作者提出课一个
阅读全文
posted @ 2017-05-03 13:11
Shiyu_Huang
阅读(2255)
推荐(0)
摘要:
Kipf, Thomas N., and Max Welling. "Semi-supervised classification with graph convolutional networks." arXiv preprint arXiv:1609.02907 (2016). 作者对Convo
阅读全文
posted @ 2017-05-02 19:58
Shiyu_Huang
阅读(2622)
推荐(0)
摘要:
参考:https://wenku.baidu.com/view/ed38304a2e3f5727a5e96211.html 傅里叶变换的限制: 拉普拉斯变换形式: 拉普拉斯变换存在定理: 周期函数的拉普拉斯变换: 拉普拉斯变换的性质: 上面这个性质可用于微分方程的求解,即通过等式两边取拉普拉斯变换,
阅读全文
posted @ 2017-05-02 15:36
Shiyu_Huang
阅读(5271)
推荐(0)
摘要:
Defferrard, Michaël, Xavier Bresson, and Pierre Vandergheynst. "Convolutional neural networks on graphs with fast localized spectral filtering." Advan
阅读全文
posted @ 2017-05-02 14:13
Shiyu_Huang
阅读(6468)
推荐(0)
摘要:
最近比较喜欢的一个并行实现,可以实时查看结果: from concurrent.futures import ProcessPoolExecutor, as_completed executor = ProcessPoolExecutor(max_workers=5) tasks = [execut
阅读全文
posted @ 2017-04-24 11:17
Shiyu_Huang
阅读(233)
推荐(0)
摘要:
可能由于网络问题,程序无法把数据集下载到'./input_data'目录下,可以手动下载到对应目录:(mnist官网:http://yann.lecun.com/exdb/mnist/ The MNIST database of handwritten digits, available from
阅读全文
posted @ 2017-04-18 14:41
Shiyu_Huang
阅读(7416)
推荐(0)
摘要:
参考资料:https://wookayin.github.io/tensorflow-talk-debugging 几种常用方法: 1.通过Session.run()获取变量的值 2.利用Tensorboard查看一些可视化统计 3.使用tf.Print()和tf.Assert()打印变量 4.使用
阅读全文
posted @ 2017-04-17 10:52
Shiyu_Huang
阅读(46788)
推荐(2)
posted @ 2017-04-12 18:29
Shiyu_Huang
阅读(735)
推荐(0)
摘要:
没看,但是论文UI和视频做的很好。 论文地址:https://papers.nips.cc/paper/6509-deep-learning-for-predicting-human-strategic-behavior.pdf 视频地址:https://www.youtube.com/watch?
阅读全文
posted @ 2017-04-10 21:38
Shiyu_Huang
阅读(227)
推荐(0)
摘要:
没看论文,但看了介绍视频,简直做了一个小型纪录片。 视频地址:https://www.youtube.com/watch?v=jfB_lWZA4Qo 中文翻译:http://blog.csdn.net/qq_19828477/article/details/55667816
阅读全文
posted @ 2017-04-10 21:16
Shiyu_Huang
阅读(405)
推荐(0)
摘要:
作者提出的方法是Algotithm 2。简单来说就是,训练的时候,在几个模型中,选取预测最准确的(也就是loss最低的)模型进行权重更新。
阅读全文
posted @ 2017-04-10 21:05
Shiyu_Huang
阅读(770)
推荐(0)
摘要:
论文提出了一种loss: x是原始数据,y是对应的label,h(x)是一个判别函数,r(x)相当于训练了一个信心函数,r(x)越大,代表对自己做的判断的信息越大,当r(x)<0的时候,就拒绝进行分类。那么这个loss函数分为前后两项,前面一项就是通常的分类错误的loss,后面一样是对不进行分类的惩
阅读全文
posted @ 2017-04-10 20:35
Shiyu_Huang
阅读(340)
推荐(0)
posted @ 2017-04-10 13:00
Shiyu_Huang
阅读(135)
推荐(0)
摘要:
1.点击侧边栏:ML Engine -> Jobs 2.选择对应的任务,点击stop
阅读全文
posted @ 2017-04-10 12:56
Shiyu_Huang
阅读(364)
推荐(0)
摘要:
def myprint(v): print v print type(v) try: print v.shape except: try: print len(v) except: pass
阅读全文
posted @ 2017-04-10 11:37
Shiyu_Huang
阅读(1299)
推荐(0)
摘要:
1.训练模型:建bucket,建job,提交运行。 2.查看log,训练过程 点击侧边栏的logging可以查看程序输出。 tensorboard:https://cloud.google.com/ml-engine/docs/how-tos/getting-started-training-pre
阅读全文
posted @ 2017-04-09 17:47
Shiyu_Huang
阅读(1145)
推荐(0)
摘要:
相关介绍: https://mp.weixin.qq.com/s?__biz=MzA5MDE2MjQ0OQ==&mid=2652786406&idx=1&sn=f937dd6aa91344fed689baf51dc821ab#rd https://mp.weixin.qq.com/s?__biz=M
阅读全文
posted @ 2017-04-09 17:04
Shiyu_Huang
阅读(623)
推荐(0)
摘要:
1.药物挖掘 2.医学影像 3.医疗诊断
阅读全文
posted @ 2017-04-09 16:41
Shiyu_Huang
阅读(2103)
推荐(0)
摘要:
****************内容加密中********************
阅读全文
posted @ 2017-04-07 11:16
Shiyu_Huang
阅读(153)
推荐(0)
posted @ 2017-04-07 10:44
Shiyu_Huang
阅读(297)
推荐(0)
摘要:
代码:*******************加密中**************************************
阅读全文
posted @ 2017-04-06 15:58
Shiyu_Huang
阅读(572)
推荐(0)
摘要:
转自:https://www.douban.com/note/518335786/?type=like 改变数组的维度 已知reshape函数可以有一维数组形成多维数组ravel函数可以展平数组b.ravel()flatten()函数也可以实现同样的功能区别:ravel只提供视图view,而flat
阅读全文
posted @ 2017-04-06 12:09
Shiyu_Huang
阅读(84502)
推荐(2)
摘要:
论文提交时间:5月下旬 会议时间:12月上旬 NIPS2017: 网址:https://nips.cc/
阅读全文
posted @ 2017-04-04 10:59
Shiyu_Huang
阅读(922)
推荐(0)
摘要:
论文提交时间:11月份中旬左右会议时间:7月份左右 CVPR 2017: 网址:http://cvpr2017.thecvf.com/ 接受论文数:782
阅读全文
posted @ 2017-04-04 10:57
Shiyu_Huang
阅读(1623)
推荐(0)
摘要:
Ba, Jimmy Lei, Jamie Ryan Kiros, and Geoffrey E. Hinton. "Layer normalization." arXiv preprint arXiv:1607.06450 (2016). Batch Normalization是对每个神经元做归一化
阅读全文
posted @ 2017-03-31 20:14
Shiyu_Huang
阅读(7324)
推荐(0)
摘要:
Ba, Jimmy, et al. "Using Fast Weights to Attend to the Recent Past." Advances In Neural Information Processing Systems. 2016. 感觉就是引入了memory的机制,多了一个矩阵A
阅读全文
posted @ 2017-03-31 16:13
Shiyu_Huang
阅读(783)
推荐(0)
摘要:
论文地址:https://128.84.21.199/abs/1703.09831 这篇论文来自于百度的机器学习研究院,作者为:徐伟、余昊男、张海超 这篇论文用了多种技术的组合: reinforcement learning, word embedding, attention, question
阅读全文
posted @ 2017-03-31 14:38
Shiyu_Huang
阅读(374)
推荐(0)