2022年6月7日
摘要: 网盘下载sc.txt文件,通过RDD操作实现以下数据分析:一、集合运算练习 1.union(),intersection(),subtract(), cartesian() 二、内连接与外连接 1.join(), leftOuterJoin(), rightOuterJoin(), fullOute 阅读全文
posted @ 2022-06-07 20:32 yyyy/\ 阅读(18) 评论(0) 推荐(0) 编辑
  2022年5月11日
摘要: 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展 Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、Data 阅读全文
posted @ 2022-05-11 14:52 yyyy/\ 阅读(17) 评论(0) 推荐(0) 编辑
  2022年4月20日
摘要: 集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习: 阅读全文
posted @ 2022-04-20 20:16 yyyy/\ 阅读(7) 评论(0) 推荐(0) 编辑
  2022年3月30日
摘要: 一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD启动hdfs 上传文件 查看文件 加载 停止hdfs 3.通过并行集合(列表)创建RDD输入列表 字符串 numpy生成数组 二、 RDD操作 转换操作 1.转换操作 1.filter(func) 显式定义函数 阅读全文
posted @ 2022-03-30 19:41 yyyy/\ 阅读(35) 评论(0) 推荐(0) 编辑
  2022年3月15日
摘要: 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 Spark的生态系统主要包含如下: Spark Core:Spark Core包含Spark最基础和最核心的功能,如内存计算、任务调度、部署模式、故障恢复、存储管理等,主要面向批数据处 阅读全文
posted @ 2022-03-15 20:47 yyyy/\ 阅读(18) 评论(0) 推荐(0) 编辑
  2022年3月7日
摘要: 一、安装Spark 1.检查基础环境hadoop,jdk 2. 配置文件、环境变量 #配置文件vim /usr/local/spark/conf/spark-env.sh 3.环境变量 4.试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件 统计每个单词出现的次数 结 阅读全文
posted @ 2022-03-07 11:08 yyyy/\ 阅读(20) 评论(0) 推荐(0) 编辑
  2022年2月28日
摘要: 1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 (1)HDFS分布式文件系统 HDFS可以兼容廉价的硬件设备,利用较低成本的及其实现大流量和大数据量的读写。 (2)MapReduce MapReduce是分布式并行编程模型,用户大规模数据集的并行计算 阅读全文
posted @ 2022-02-28 22:52 yyyy/\ 阅读(29) 评论(0) 推荐(0) 编辑