摘要: 1.选择使用什么数据,有哪些字段,多大数据量。 本次实验数据集来自和鲸社区的信用卡评分模型构建数据 ,以数据集cs-training.csv为分析主体,其中共有15万条记录,11列属性。 SeriousDlqin2yrs: 是否逾期。RevolvingUtilizationOfUnsecuredLi 阅读全文
posted @ 2021-06-11 14:44 Ling3 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 1.安装启动检查Mysql服务。 2.spark 连接mysql驱动程。 –cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars 3.启动 Mysql shell,新建数据库spark,表st 阅读全文
posted @ 2021-05-31 15:08 Ling3 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 1.用DataFrame的操作或SQL语句完成以下数据分析要求: 2.总共有多少学生? 3.开设了多少门课程? 4.每个学生选修了多少门课? 5.每门课程有多少个学生选? 6.Tom选修了几门课?每门课多少分? 7.Tom的成绩按分数大小排序。 8.Tom的平均分。 9.每个分数+5分。 10.求每 阅读全文
posted @ 2021-05-19 22:03 Ling3 阅读(36) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 1.读文本文件生成RDD lines lines = sc.textFile('file:///home/hadoop/word.txt') 2.将一行一行的文本分割成单词 words flatmap( words=lines.flatMap(lambda line:line.spl 阅读全文
posted @ 2021-04-18 20:19 Ling3 阅读(29) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 1.读文本文件生成RDD lines lines=sc.textFile("file:/mycode/rdd/word.txt") lines.foreach(print) 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 lower() 4.去掉长 阅读全文
posted @ 2021-04-04 19:41 Ling3 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 1.准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2.生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 3. 筛选 阅读全文
posted @ 2021-03-27 22:19 Ling3 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 HDFS(Hadoop分布式文件系统):HDFS是Hadoop体系中数据存储管理的基础,它是一个高度容错的系统,能检测和应对硬件故障,在低成本的通用硬 阅读全文
posted @ 2021-03-13 22:31 Ling3 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 2.1 数据准备 数据集下载与查看 cd /usr/local ls sudo mkdir bigdatacase sudo chown -R hadoop:hadoop ./bigdatacase cd bigdatacase mkdir dataset cd ~/下载 ls unzip user 阅读全文
posted @ 2020-12-26 18:12 Ling3 阅读(124) 评论(0) 推荐(0) 编辑
摘要: aaaa 阅读全文
posted @ 2020-12-12 18:27 Ling3 阅读(43) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-12-12 18:19 Ling3 阅读(42) 评论(0) 推荐(0) 编辑