摘要: 期末作业: 一、.选择使用什么数据,有哪些字段,多大数据量。 地震数据 累计死亡人数 不同类型的地震数量 各个省份的地震次数 二、准备分析哪些问题?(8个以上) 1.中国境内每个省份(海域)发生重大地震的次数 2.不同类型地震的数量 3.震级前500的地震 4.震源深度前500的地震 5. 震级与震 阅读全文
posted @ 2021-06-11 14:45 wwxtl 阅读(13) 评论(0) 推荐(0) 编辑
摘要: spark连接mysql数据库 安装启动检查Mysql服务。netstat -tunlp (3306) spark 连接mysql驱动程序。–cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jar 阅读全文
posted @ 2021-05-30 11:48 wwxtl 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 >>> url = "file:///usr/local/spark/mycode/rdd/chapter4-data01.txt" >>> rdd = spark.sparkContext.textFile(url 阅读全文
posted @ 2021-05-20 19:16 wwxtl 阅读(36) 评论(0) 推荐(0) 编辑
摘要: Spark SQL出现的 原因是什么? Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL的前身是 Shark,由于 Shark过于依赖Hive,因此在版本迭代时很难添加新的优化 阅读全文
posted @ 2021-05-09 22:26 wwxtl 阅读(56) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 读文本文件生成RDD lines 将一行一行的文本分割成单词 words flatmap() 全部转换为小写 lower() 去掉长度小于3的单词 filter() 去掉停用词 1.准备停用词文本: 2.去除停用词: 转换成键值对 map() 统计词频 reduceByKey() 按 阅读全文
posted @ 2021-04-18 13:20 wwxtl 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 准备停用词文本 2.去除停用词: 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分 阅读全文
posted @ 2021-04-04 11:04 wwxtl 阅读(23) 评论(0) 推荐(0) 编辑
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 二、groupByKey练习 6.练习一的生成单词键值对 7.对单词进行分组 8.查看分组结果 学生科目成绩 阅读全文
posted @ 2021-03-31 20:47 wwxtl 阅读(21) 评论(0) 推荐(0) 编辑
摘要: 1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 3. 阅读全文
posted @ 2021-03-27 13:53 wwxtl 阅读(28) 评论(0) 推荐(0) 编辑
摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 Hadoop是一个能够对大量数据进行分布式处理的软件框架。具有可靠、高效、可伸缩的特点。 Hadoop的核心是HDFS和MapReduce,hadoo 阅读全文
posted @ 2021-03-12 15:43 wwxtl 阅读(63) 评论(0) 推荐(0) 编辑
摘要: hadoop使用实例 下载喜欢的电子书或大量文本数据,并保存在本地文本文件中 编写map与reduce函数 本地测试map与reduce 将文本数据上传至HDFS上 阅读全文
posted @ 2021-01-06 17:36 wwxtl 阅读(20) 评论(0) 推荐(0) 编辑