摘要:梯度下降法作为一种反向传播算法最早在上世纪由geoffrey hinton等人提出并被广泛接受。最早GD由很多研究团队各自独立提出来,可大都无人问津,而hinton做的研究完整表述了GD方法,同时hinton为自己的研究多次走动人际关系使得其论文出现在了当时的《nature》上,因此GD得到了第一次 阅读全文
posted @ 2019-10-06 18:33 dynmi 阅读 (414) 评论 (1) 编辑
摘要:本文仅对常见的无监督学习算法进行了简单讲述,其他的如自动编码器,受限玻尔兹曼机用于无监督学习,神经网络用于无监督学习等未包括。同时虽然整体上分为了聚类和降维两大类,但实际上这两类并非完全正交,很多地方可以相互转化,还有一些变种的算法既有聚类功能又有降维功能,一些新出现的和尚在开发创造中的无监督学习算 阅读全文
posted @ 2019-10-04 00:14 dynmi 阅读 (2372) 评论 (2) 编辑
摘要:1.进程是资源分配单位, 线程是CPU调度单位 2.进程拥有一个完整的资源平台, 而线程只独享指令流执行的必要资源,如registers和stack 3.线程具有 就绪, 阻塞, 运行 三种基本状态和状态间的转换关系 4. 线程能减少并发执行的时间空间开销 多线程的引入: 在进程内部增加一类实体满足 阅读全文
posted @ 2020-03-31 11:37 dynmi 阅读 (2) 评论 (0) 编辑
摘要:1.Broadcast 2.Scatter 3.Gather 4.Reduce 5.AllGather 6.Allreduce 阅读全文
posted @ 2020-03-30 18:35 dynmi 阅读 (5) 评论 (0) 编辑
摘要:1. void *memset(void *str, int c, size_t n) 复制字符c到参数str所指向的字符串的前n个字符 2. char *strcat(char *dest, const char *src) 把src所指向的字符串追加到dest所指向的字符串的结尾 3.int s 阅读全文
posted @ 2020-03-29 20:32 dynmi 阅读 (9) 评论 (0) 编辑
摘要:1.内存 stack memory (local variables, function arguments/calls, return address, etc) heap memory (malloc) <1>stack 一般情况下, stack 先使用高地址,再使用低地址 <2>heap I 阅读全文
posted @ 2020-03-29 19:27 dynmi 阅读 (8) 评论 (0) 编辑
摘要:Level1: 分类问题最早只是二分类问题,最初只有这几个概念:"真正例","真负例","假正例","假负例". TP: 样本标签为1,模型预测为1 FP: 样本标签为1,模型预测为-1 TN: 样本标签为-1,模型预测为-1 FN:样本标签为-1,模型预测为1 Level2: 准确率acc, 通俗 阅读全文
posted @ 2020-03-22 15:39 dynmi 阅读 (7) 评论 (0) 编辑
摘要:str表示文本串,m表示模式串; str[i] 和 m[j] 是正在进行匹配比较的字符; KMP的时间复杂度是O(m+n) , 暴力求解的时间复杂度是O(m*n) KMP利用了m[ 0 : j-1 ]和str[ i-j : i-1 ]是相同的这一点,而暴力求解显然做不到. int kmp(strin 阅读全文
posted @ 2020-03-15 22:02 dynmi 阅读 (32) 评论 (0) 编辑
摘要:2011年的ImageNet图像分类比赛被AlexNet屠榜. 1.证明了----增加网络层数,使模型结构更复杂,可以得到拟合能力更强的模型. 2.激活函数使用Relu 3.Data Argumention,数据扩充 ,丰富多样了训练集数据,减轻模型对imageNet数据集的过拟合,训练得到更强大的 阅读全文
posted @ 2020-03-13 01:27 dynmi 阅读 (7) 评论 (0) 编辑
摘要:Assume数据集样本总量为n LOOCV每次验证集的样本数量为1,而K-fold验证集的样本数量为n/k 阅读全文
posted @ 2020-03-08 14:30 dynmi 阅读 (16) 评论 (0) 编辑
摘要:PS: https://pjreddie.com/media/files/papers/YOLOv3.pdfyolov3的paper是我读过所有paper里最不像papaer的.活活像一篇推特文.... 其实我觉得2015的yolov1最值得学习与挖掘的一点在于:当所有人都沿用旧案把CNN的最后一层 阅读全文
posted @ 2020-03-01 14:17 dynmi 阅读 (15) 评论 (0) 编辑
摘要:首先检测TPU存在: tpu = tf.distribute.cluster_resolver.TPUClusterResolver() #如果先前设置好了TPU_NAME环境变量,不需要再给参数. tpu的返回值为1 or 0 ,1则检测到了TPU. tf.config.experimental_ 阅读全文
posted @ 2020-02-29 13:26 dynmi 阅读 (170) 评论 (0) 编辑