随笔分类 -  0-机器学习/深度学习

摘要:1,一个典型的深度学习项目目录树结构 data 数据集名称1 数据文件1 数据文件2 ... data_process.py 数据说明 数据集名称2 数据文件1 数据文件2 ... data_process.py 数据说明 模型名[1][-V1] model toGithub //有想要保存的git 阅读全文
posted @ 2022-03-21 22:51 tensor_zhang 阅读(453) 评论(0) 推荐(0)
摘要:0,总览 数据挖掘十大算法/~2007:C4.5决策树、K-均值(k-means)、支持向量机(SVM)、Apriori、最大期望算法(EM)、PageRank算法、AdaBoost算法、k-近邻算法(KNN)、朴素贝叶斯算法(NB)、分类回归树(CART) 本书没有包含:最大期望算法(EM)、Pa 阅读全文
posted @ 2021-07-11 00:11 tensor_zhang 阅读(203) 评论(0) 推荐(0)
摘要:问题1,模式坍塌(Mode collapse ) 对模式崩溃产生原因的猜想: GAN的学习目标是映射关系G:x➡y,这种单一域之间的对应关系是高度约束不足的,无法为分类器和判别其的训练提供足够的信息输入。 在这种情况下所优化得到的G可以将域X转换为与Y分布相同的域Y',但是并不能确保单独的输入和输出 阅读全文
posted @ 2021-07-05 15:30 tensor_zhang 阅读(1949) 评论(0) 推荐(0)
摘要:1. 全连接网络与卷积网络 全连接网络的问题 丢失输入数据的空间信息 模型参数过多,容易过拟合 卷积网络的优势 保留空间信息:在卷积运算中,计算范围是在像素点的空间邻域内进行的,它代表了对空间邻域内某种特征模式的提取。对比全连接层将输入展开成一维的计算方式,卷积运算可以有效学习到输入数据的空间信息。 阅读全文
posted @ 2021-07-03 23:55 tensor_zhang 阅读(296) 评论(0) 推荐(0)
摘要:第1章 统计学习及监督学习概论 统计学习:从给定的、有限的、用于学习的训练数据(training data)集合出发,假设数据是独立同分布产生的;并且假设要学习的模型属于某个函数的集合,称为假设空间(hypothesis space);应用某个评估准则(evaluation space),从假设空间 阅读全文
posted @ 2021-06-29 13:01 tensor_zhang 阅读(154) 评论(0) 推荐(0)
摘要:1,WGAN 1.1,从GAN到WGAN,最核心的有这么几点: GAN的损失函数如下: \[ \min_{G}\max_{D}V\{D,G\}=E_{x\sim{P_{data(x)}}}[logD(x)]+E_{x\sim{P_{z(z)}}}[log(1-D(G(z)))] \tag{0} \] 阅读全文
posted @ 2021-06-27 23:49 tensor_zhang 阅读(1721) 评论(0) 推荐(0)
摘要:杂谈 1. 对机器学习问题而言,数据和特征(包括获取先验知识所用到的数据和特征)决定了结果的上限,而模型、算法的选择和优化则是在逐步接近这个上限。 2. 数值型特征归一化 为什么需要进行特征归一化? 为了消除数据特征之间的量纲影响,使得不同指标处于同一数量级,具有可比性。(尤其在kNN等基于度量的算 阅读全文
posted @ 2021-06-19 00:04 tensor_zhang 阅读(219) 评论(0) 推荐(0)
摘要:1,GAN的发展历史 总结 The Six Fronts of the Generative Adversarial Networks GAN最早是由Ian J. Goodfellow等人于2014年10月提出的,他的《Generative Adversarial Nets》可以说是这个领域的开山之 阅读全文
posted @ 2021-04-15 22:28 tensor_zhang 阅读(4877) 评论(3) 推荐(0)
摘要:根据模型的训练策略划分: 直推式学习(Transductive Semi-supervised Learning) 无标记数据就是最终要用来测试的数据,学习的目的就是在这些数据上取得最佳泛化能力。 归纳式学习(Inductive Semi-supervised Learning) 认为待识别样本不能 阅读全文
posted @ 2021-03-08 19:12 tensor_zhang 阅读(1343) 评论(0) 推荐(0)
摘要:1,符号 sup 上确界 inf 下确界 := 定义为 argmin 使后面式子达到最小值时变量的取值 argmax 使后面式子达到最大值时变量的取值 i.e. 换句话说(in other word) \((f)_{+}\) 若f的取值大于零则取f本身,否则取零 diag 对角矩阵 2,概念 支撑集 阅读全文
posted @ 2020-10-07 15:00 tensor_zhang 阅读(2018) 评论(0) 推荐(0)