DataFrame DataSet Spark SQL学习

RDD加上结构,比如说类名,就可以变成DataFrame,DataFrame,将每一类同这一类的类名绑定在一起就可以称为DataSet.

spark sql 就是来处理dataframe和dataset这样的结构数据的。

spark sql使用的时候需要提供spark session环境。

// Spark 初始化
    val sparkConf = new SparkConf()
      .setAppName("logv_learning")
      .setMaster("local")
    val sparkContext = new SparkContext(sparkConf)
    val sparkSession = SparkSession.builder().config(sparkConf)
      .getOrCreate()

  上面的代码是创建sparkcontext sparkconf sparksession的创建方法。

dataFrame的创建方式有三种,通过spark的数据源,直接读取之后就是dataframe类型了。

二是从一个存在的rdd创建,通过toDF方法,方法中的参数是你为数据每一列加的列名。

三是从Hive Table进行查询返回。

spark sql既可以通过传统sql的方式来进行查询,也可以使用DSL风格,类似于:

df.select("name").show()的感觉,感觉和MongoDB提供给go语言的接口相似

posted @ 2020-07-01 18:30  随意无心  阅读(175)  评论(0)    收藏  举报