随笔分类 -  Spark

Spark SQL应用
摘要:Spark Shell启动后,就可以用Spark SQL API执行数据分析查询。 在第一个示例中,我们将从文本文件中加载用户数据并从数据集中创建一个DataFrame对象。然后运行DataFrame函数,执行特定的数据选择查询。 文本文件customers.txt中的内容如下: 下述代码片段展示了 阅读全文
posted @ 2016-04-20 19:29 回家的流浪者 阅读(437) 评论(0) 推荐(0)
HiveContext VS SQLContext
摘要:There are two ways to create context in Spark SQL: SqlContext:scala> import org.apache.spark.sql._scala> var sqlContext = new SQLContext(sc) HiveConte 阅读全文
posted @ 2016-03-17 16:23 回家的流浪者 阅读(556) 评论(0) 推荐(0)