上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 31 下一页
摘要: 列翻转:data.iloc[:, ::-1]行翻转:data.iloc[::-1] 阅读全文
posted @ 2022-12-07 14:37 wangssd 阅读(119) 评论(0) 推荐(0)
摘要: 聚类(clustering) 无监督学习的结果。聚类的结果将产生一组集合,集合中的对象与同集合中的对象彼此相似,与其他集合中的对象相异。 没有标准参考的学生给书本分的类别,表示自己认为这些书可能是同一类别的(具体什么类别不知道,没有标签和目标,即不是判断书的好坏(目标,标签),只能凭借特征而分类)。 阅读全文
posted @ 2022-11-23 16:04 wangssd 阅读(818) 评论(0) 推荐(0)
摘要: from sklearn.ensemble import RandomForestClassifier rf = RandomForestClassifier(n_estimators=2, max_depth=2, random_state=1) rf.fit(x_train, y_train) 阅读全文
posted @ 2022-11-23 10:02 wangssd 阅读(250) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/qq_42818403/article/details/123632502?spm=1001.2101.3001.6650.2&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7EC 阅读全文
posted @ 2022-11-22 20:15 wangssd 阅读(31) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/weixin_43776305/article/details/116895875 集成学习 集成学习有两个主要的问题需要解决,第一是如何得到若干个个体学习器,第二是如何选择一种结合策略,将这些个体学习器集合成一个强学习器。 集成算法会考虑多个评估器的建模 阅读全文
posted @ 2022-11-22 17:44 wangssd 阅读(291) 评论(0) 推荐(0)
摘要: https://cloud.tencent.com/developer/article/1819247 决策树三大流行算法ID3、C4.5和CART 3个算法的主要区别在于度量信息方法、选择节点特征还有分支数量的不同。 ID3:采用熵(entropy)来度量信息不确定度,选择“信息增益”最大的作为节 阅读全文
posted @ 2022-11-22 17:15 wangssd 阅读(240) 评论(0) 推荐(0)
摘要: 1. 数据输入 pytorch 中计计算交叉熵损失函数时, 输入的正确 label 不能是 one-hot 格式。函数内部会自己处理成 one hot 格式。所以不需要输入 [ 0 0 0 0 1],只需要输入 4 就行。 在经过 loss 的时候,CrossEntropyLoss 会自动为其编码为 阅读全文
posted @ 2022-11-10 14:45 wangssd 阅读(324) 评论(0) 推荐(0)
摘要: tensor张量大小: 四维图片数据:(Batch, Channels, Height, Width) 三维序列数据: (sequence_length, batch_size, input_size) 1. view( )函数 PyTorch 中的view( )函数相当于numpy中的resize 阅读全文
posted @ 2022-11-10 09:49 wangssd 阅读(276) 评论(0) 推荐(0)
摘要: TensorDataset TensorDataset可以用来对 tensor 进行打包,就好像 python 中的 zip 功能。该类通过每一个 tensor 的第一个维度进行索引。因此,该类中的 tensor 第一维度必须相等. 另外:TensorDataset 中的参数必须是 tensor i 阅读全文
posted @ 2022-11-10 09:27 wangssd 阅读(238) 评论(0) 推荐(0)
摘要: 推荐学习网站 scikit-learn 中文社区网址: https://scikit-learn.org.cn/ 阅读全文
posted @ 2022-11-09 11:00 wangssd 阅读(73) 评论(0) 推荐(0)
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 31 下一页