随笔分类 - Spark
摘要:Spark_DLS语法: 目录Spark_DLS语法:1.[Spark]-SQL2.DSL示例3.DSL解析json,csv文件1.printSchema() 打印表结构2.studentDF.show(100) 默认20条数据3.studentDF.show(false) 某些值太长,完整打印每一
阅读全文
摘要:spark的SparkContext,SparkConf和SparkSession及dataframe和RDD的区别 SparkContext 和 SparkConf 任何Spark程序都是SparkContext开始的,SparkContext的初始化需要一个SparkConf对象,SparkCo
阅读全文
摘要:spark-数据倾斜 ==1.解决方案== 1.1使用Hive ETL预处理数据 1.2、过滤少数导致倾斜的key 1.3、提高shuffle操作的并行度 1.4、双重聚合 1.5、将reduce join转为map join 1.6 、采样倾斜key并分拆join操作 1. 7、使用随机前缀和扩容
阅读全文
摘要:spark-调优(配置层面) 1.executor的配置(重点) --num-executors executor的数量 --executor-memory 每一个executor的内存 --executor-cores 每一个executor的核心数 --driver-memory Driver的
阅读全文
摘要:spark-调优(代码) ==在编写代码时可以进行优化== 避免创建重复的RDD 尽可能复用同一个RDD 对多次使用的RDD进行持久化 尽量避免使用shuffle类算子 使用map-side预聚合的shuffle操作 使用高性能的算子 广播大变量 使用Kryo优化序列化性能 优化数据结构 使用高性能
阅读全文
摘要:spark streaming ==实时计算的案例== 数据 {"car":"皖A9A7N2","city_code":"340500","county_code":"340522","card":117988031603010,"camera_id":"00001","orientation":"
阅读全文
摘要:spark streaming DS转成DF写代码 package com.shujia.spark.streaming import org.apache.spark.SparkContext import org.apache.spark.rdd.RDD import org.apache.sp
阅读全文
摘要:spark streaming WordCount案例 创建spark Streaming 环境,需要依赖Spark core 环境 创建spark streaming 环境,需要设置执行执行的间隔时间 * 1、读取实时的数据源 * 安装 * yum install nc * 启动socket服务
阅读全文
摘要:蚂蚁森林植物申领统计 使用spark sql DSL完成以下作业 背景说明 下表记录了用户每天的蚂蚁森林低碳生活领取的记录流水。 table_name:user_low_carbon | 字段名 | 字段描述 | | | | | user_id | 用户 | | data_dt | 日期 | | l
阅读全文
摘要:spark subject subject_1:==lag函数的使用场景(灵活)== 公司代码,年度,1月 12月的收入金额 burk,year,tsl01,tsl02,tsl03,tsl04,tsl05,tsl06,tsl07,tsl08,tsl09,tsl10,tsl11,tsl12 85310
阅读全文
摘要:spark 将项目打包到集群中运行 package com.sql import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession} object Demo9Submit { def main(args: Array[String]):
阅读全文
摘要:spark DSL DSL的数据来源 package com.sql import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession} object Demo4DataSource { def main(args: Array[Strin
阅读全文
摘要:spark-sql_DSL sparksql的单词统计 package com.sql import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession} object Demo1WordCount { def main(args: Arr
阅读全文
摘要:spark sql整合hive 在spark sql中使用hive的元数据 spark sql是使用spark进行计算的,hive使用MR进行计算的 1、在hive的hive-site.xml修改一行配置,增加了这一行配置之后,以后在使用hive之前都需要先启动元数据服务 cd /usr/local
阅读全文
摘要:Spark Sql spark-sql 写代码方式 1、idea里面将代码编写好打包上传到集群中运行,上线使用 --conf spark.sql.shuffle.partitions=1 -- 设置spark sqlshuffle之后分区数据马,和代码里面设置是一样的,代码中优先级高 spark-s
阅读全文
摘要:Spark 关键词:spark计算引擎,资源调度(申请资源),任务调度(执行task) 累加器,广播变量。 spark计算引擎,资源调度(申请资源),任务调度(执行task) 注:此此流程使用 yarn-client 模式 1-7 为资源调度(申请资源) 1在本地启动Driver程序 2.向RM申请
阅读全文
摘要:Spark测试代码求PI的原理 原理图 代码实现 package com.core.day2 import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext} import scala.util.Ran
阅读全文
摘要:Spark整合yarn 原因:==在公司一般不适用standalone模式,因为公司一般已经有yarn 不需要搞两个资源管理框架== 停止spark集群 在spark sbin目录下执行 ./stop-all.sh spark整合yarn只需要在一个节点整合, 可以删除node1 和node2中所有
阅读全文
摘要:Spark集群搭建(不常用) 1、上传解压,配置环境变量 配置bin目录,解压 重命名 tar -xvf spark-2.4.5-bin-hadoop2.7.tgz 配置环境变量 mv spark-2.4.5-bin-hadoop2.7 spark-2.4.5 环境变量配置完成后记得source一下
阅读全文
摘要:Spark—算子—spark缓存策略 转换算子和操作算子 转换算子 ==转换算子:将一个RDD转换成另一个RDD,转换算子是懒执行,需要action算子来触发执行== 操作算子 ==触发任务执行,一个action算子会触发一次任务执行,同时每一个action算子都会触发前面的代码执行== packa
阅读全文

浙公网安备 33010602011771号