摘要: 1.手写数字数据集 from sklearn.datasets import load_digits digits = load_digits() digits = load_digits() x_data = digits.data.astype(np.float32) y_data = digi 阅读全文
posted @ 2020-06-09 01:49 sj! 阅读(184) 评论(0) 推荐(0)
摘要: 1.简述人工智能、机器学习和深度学习三者的联系与区别。 人工智能是最早出现的,其次是机器学习,最后是深度学习,当今人工智能大爆炸的核心驱动。 区别和联系: 2. 全连接神经网络与卷积神经网络的联系与区别。 卷积神经网络也是通过一层一层的节点组织起来的。和全连接神经网络一样,卷积神经网络中的每一个节点 阅读全文
posted @ 2020-06-01 20:13 sj! 阅读(133) 评论(0) 推荐(0)
摘要: 1.读取 sms = open("SMSSpamCollection", 'r', encoding='utf-8') # 数据读取 sms_data = [] sms_label = [] csv_reader = csv.reader(sms, delimiter='\t') for line 阅读全文
posted @ 2020-05-23 10:24 sj! 阅读(195) 评论(0) 推荐(0)
摘要: 1. 读邮件数据集文件,提取邮件本身与标签。 列表 numpy数组 import csv file_path = r"SMSSpamCollection" sms = open(file_path, 'r', encoding='utf-8') data = csv.reader(sms, deli 阅读全文
posted @ 2020-05-16 22:34 sj! 阅读(199) 评论(0) 推荐(0)
摘要: 1.理解分类与监督学习、聚类与无监督学习。 简述分类与聚类的联系与区别。 简述什么是监督学习与无监督学习。 (1)分类与聚类: ① 联系:分类和聚类都包含一个过程:对于想要分析的目标点,都会在数据集中寻找离它最近的点,即二者都用到了NN算法。 ② 区别:分类是为了确定一个点的类别,具体有哪些类别是已 阅读全文
posted @ 2020-05-07 23:23 sj! 阅读(257) 评论(0) 推荐(0)
摘要: 一、用自己的话描述出其本身的含义: 1、特征选择 就比如有M个特征,在其中选择N个特征使得系统的特定指标达到最优的结果,这个从M→N的过程就是特征选择。 2、PCA 主成分分析,经常用于减少数据集的维数,同时保持数据集中的对方差贡献最大的特征,简单来说就是减少这份数据样本的某些属性,降低冗余,但是同 阅读全文
posted @ 2020-04-27 19:35 sj! 阅读(148) 评论(0) 推荐(0)
摘要: 用过滤法对以下数据进行特征选择: [[0,2,0,3], [0,1,4,3], [0,1,1,3]] 要求: 1、Variance Threshold(threshold =1.0) 2、将结果截图 from sklearn.feature_selection import VarianceThre 阅读全文
posted @ 2020-04-27 09:57 sj! 阅读(123) 评论(0) 推荐(0)
摘要: 1.逻辑回归是怎么防止过拟合的?为什么正则化可以防止过拟合?(大家用自己的话介绍下) · 逻辑回归降拟合方法: (1)增加样本量; (2)使用正则化:L1、L2正则化; (3)特征选择,剔除一些不重要的特征,从而降低模型复杂度; (4)进行离散化处理,这也是最主要的。 · 防止过拟合: 函数在某些小 阅读全文
posted @ 2020-04-26 21:47 sj! 阅读(179) 评论(0) 推荐(0)
摘要: 1.用自己的话描述一下,什么是逻辑回归,与线性回归对比,有什么不同? 逻辑回归又称logistic回归分析,是一种广义的线性回归分析模型,是一个专门解决二分类的分类算法。逻辑回归使用一个函数来归一化y值,使y的取值在区间(0,1)内,这个函数称为Logistic函数(logistic functio 阅读全文
posted @ 2020-04-23 19:53 sj! 阅读(256) 评论(0) 推荐(0)
摘要: 1.本节重点知识点用自己的话总结出来,可以配上图片,以及说明该知识点的重要性 · 我们先了解回归算法: · 课上老师举了线性回归的应用:①房价预测;②销售额预测;③贷款额度预测; 我们可以发现做线性回归,需要的数据都应该为连续型,最终要预测的因素成为目标值,把影响的因素成为特征;如果影响的因素只有一 阅读全文
posted @ 2020-04-20 22:56 sj! 阅读(301) 评论(0) 推荐(0)