Spark SQL应用
摘要:Spark Shell启动后,就可以用Spark SQL API执行数据分析查询。 在第一个示例中,我们将从文本文件中加载用户数据并从数据集中创建一个DataFrame对象。然后运行DataFrame函数,执行特定的数据选择查询。 文本文件customers.txt中的内容如下: 下述代码片段展示了
阅读全文
posted @
2016-04-20 19:29
回家的流浪者
阅读(437)
推荐(0)
HiveContext VS SQLContext
摘要:There are two ways to create context in Spark SQL: SqlContext:scala> import org.apache.spark.sql._scala> var sqlContext = new SQLContext(sc) HiveConte
阅读全文
posted @
2016-03-17 16:23
回家的流浪者
阅读(556)
推荐(0)