打赏

SparkSQL 与 Spark Core的关系

 

 

  

  Spark SQL构建在Spark Core之上专门用来处理结构化数据(不仅仅是SQL)。即Spark SQL是Spark Core封装而来的!

  Spark SQL在Spark Core的基础上针对结构化数据处理进行很多优化和改进,

  简单来讲:

    Spark SQL 支持很多种结构化数据源,可以让你跳过复杂的读取过程,轻松从各种数据源中读取数据。

    当你使用SQL查询这些数据源中的数据并且只用到了一部分字段时,SparkSQL可以智能地只扫描这些用到的字段,而不是像SparkContext.hadoopFile中那样简单粗暴地扫描全部数据。

 

 

 

 

 

   可见,Spark Core与Spark SQL的数据结构是不一样的!

            

 

 

 

 

 

 

详细,请移步

Spark SQL概念学习系列之Spark SQL概述

posted @ 2017-04-09 17:58  大数据和AI躺过的坑  阅读(2699)  评论(0编辑  收藏  举报