摘要:
在2.0版本之前,使用Spark必须先创建SparkConf和SparkContext catalog:目录 Spark2.0中引入了SparkSession的概念,SparkConf、SparkContext 和 SQLContext 都已经被封装在 SparkSession 当中,并且可以通过 阅读全文
posted @ 2018-05-21 10:12 打杂滴 阅读(391) 评论(0) 推荐(0)
posted @ 2018-05-21 10:12 打杂滴 阅读(391) 评论(0) 推荐(0)