04 2017 档案
摘要:print():打印DStream中的前10行数据 saveAsTextFiles(prefix, [suffix]):保存成文本文件到prefix指定的目录下,后缀为suffix saveAsObjectFiles(prefix, [suffix]) :保存DStream数据为 SequenceF
阅读全文
摘要:window(windowLength, slideInterval):返回窗口长度为windowLength,每隔slideInterval滑动一次的window DStream countByWindow(windowLength, slideInterval):返回窗口中元素的个数 reduc
阅读全文
摘要:Window Operations 有点类似于Storm中的State,可以设置窗口的大小和滑动窗口的间隔来动态的获取当前Steaming的允许状态,可以对一段时间的数据进行处理。 如图window length 为3秒sliding interval 为2秒batch interval of th
阅读全文
摘要:map(func):对DStream中的所有的元素进行func转换生成新的DStream flatMap(func):和map方法类似,先对DStream中的元素进行func运算,然后压平,就是说,如果有一个元素是集合或者数组,那么会被拆成一个一个的元素 filter(func):对DStream中
阅读全文
摘要:Receiver 从数据源接收数据,然后把数据存储在内存中供spark streaming使用,在本地运行spark streaming不能设置master为local或者local[1],此时运行的线程只有一个,因为需要一个线程去运行Receiver接收数据,因此,就没有线程去处理数据了 代码 使
阅读全文
摘要:Spark Streaming Spark Streaming类似于Apache Storm,用于流式数据的处理。根据其官方文档介绍,Spark Streaming有高吞吐量和容错能力强等特点。Spark Streaming支持的数据输入源很多,例如:Kafka、Flume、Twitter、Zero
阅读全文
摘要:ThriftServer是一个JDBC/ODBC接口,用户可以通过JDBC/ODBC连接ThriftServer来访问SparkSQL的数据。ThriftServer在启动的时候,会启动了一个SparkSQL的应用程序,而通过JDBC/ODBC连接进来的客户端共同分享这个SparkSQL应用程序的资
阅读全文
摘要:Spark SQL CLI Spark1.1增加了Spark SQL CLI和ThriftServer SparkSQL CLI配置 1、创建并配置hive-site.xml 在运行Spark SQL CLI中需要使用到Hive Metastore,故需要在Spark中添加其uris。具体方法是在S
阅读全文
摘要:DSL风格语法 1、查看DataFrame中的内容 2、查看DataFrame部分列的数据 3、查看DataFrame schema信息 4、查询name和age并将age + 1 5、过滤年龄大于20的人 6、按年龄分组,并统计年龄相同的人数 SQL风格 在使用SQL风格前,首先需要将DataFr
阅读全文
摘要:SQLContext是创建DataFrame和执行SQL语句的入口 通过RDD结合case class转换为DataFrame 1、准备:hdfs上提交一个文件,schema为id name age,内容如下 2、打开spark-shell命令行,执行如下
阅读全文
摘要:什么是spark SQL spark SQL是spark处理结构化数据的一个模块,它提供了一个编程抽象叫做DataFrame,并作为分布式SQL查询引擎来使用。 spark SQL和 hive SQL hive SQL转换成MapReduce然后提交到集群上执行,大大简化了编写MapReduce的复
阅读全文
摘要:RDD的缓存 Spark速度非常快的原因之一,就是在不同操作中可以在内存中持久化或缓存数据集。当持久化某个RDD后,每一个节点都将把计算的分片结果保存在内存中,并在对此RDD或衍生出的RDD进行的其他动作中重用。这使得后续的动作变得更加迅速。RDD相关的持久化和缓存是Spark最重要的特征之一。可以
阅读全文
摘要:RDD的依赖关系 子RDD和它依赖的父RDD(s)的关系有两种不同的类型,窄依赖(narrow dependency)和宽依赖(wide dependency)。 窄依赖 指的是每一个父RDD的Partition最多被子RDD的一个Partition使用 宽依赖 指的是多个子RDD的Partitio
阅读全文
摘要:创建RDD的两种方法 1、由scala集合创建val rdd1 = sc.parallelize(Array(1,2,3,4,5,6,7,8))2、由外部存储系统的数据创建val rdd2 = sc.textFile("hdfs://m1:9000/words.txt") RDD的算子Transfo
阅读全文
摘要:RDD(Resilient Distributed Dataset) 弹性分布式数据集是spark中最基本的数据抽象,它代表不可变的、可分区的、里面的数据可以进行并行计算的集合。RDD具有数据流模型的特点,自动容错,位置感知性调度和可伸缩性。RDD允许用户在查询数据时显示的将数据集缓存在内存中,后续
阅读全文
摘要:1、上传2、解压 3、重命名 4、配置hadoop环境变量5、修改配置文件5.1、编辑hadoop-env.sh,修改JAVA_HOME 5.2、编辑core-site.xml修改如下 5.3、修改hdfs-site.xml,如下 5.4、修改mapred-site.xml,如下 5.4、修改yar
阅读全文
摘要:docker ssh连接报下面的错 Last login: Thu Apr 13 09:17:23 2017 from localhost Connection to 127.0.0.1 closed. 解决方法修改vi /etc/ssh/sshd_config,修改UsePAM no,重新启动即可
阅读全文
摘要:数据模型 Row Key 与nosql数据库一样,row key是用来检索记录的主键。访问HBASE table中的行,只有三种方式:1.通过单个row key访问2.通过row key的range(正则)3.全表扫描Row key行键 (Row key)可以是任意字符串(最大长度 是 64KB,实
阅读全文
摘要:配置文件设置密码认证 修改redis.conf去掉#requirepass foobared前面的#,foobared就是密码,可以进行修改 redis命令设置密码认证config set requirepass my_redis 连接相关命令 quit: 断开连接auth:简单密码认证 持久化 s
阅读全文
摘要:redis简介 redis是一个key-value存储系统。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)和zset(有序集合)。这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且
阅读全文
浙公网安备 33010602011771号