会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Xiaohu_BigData
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
4
5
6
7
8
9
10
11
12
···
23
下一页
2020年5月20日
Flink学习(十一) Sink到Elasticsearch
摘要: 导入依赖 <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-elasticsearch6_2.11</artifactId> <version>1.7.2</version> </dependen
阅读全文
posted @ 2020-05-20 17:21 Xiaohu_BigData
阅读(1919)
评论(1)
推荐(0)
2020年5月19日
Flink学习(十) Sink到Redis
摘要: 添加依赖 <dependency> <groupId>org.apache.bahir</groupId> <artifactId>flink-connector-redis_2.11</artifactId> <version>1.0</version> </dependency> 编写代码 pa
阅读全文
posted @ 2020-05-19 23:30 Xiaohu_BigData
阅读(2026)
评论(0)
推荐(0)
Flink学习(九) Sink到Kafka
摘要: package com.wyh.streamingApi.sink import java.util.Properties import org.apache.flink.api.common.serialization.SimpleStringSchema import org.apache.fl
阅读全文
posted @ 2020-05-19 23:28 Xiaohu_BigData
阅读(1176)
评论(0)
推荐(0)
2020年5月16日
Flink学习(八) Flink SQL & Table 编程和案例
摘要: Flink Table & SQL 概述背景我们在前面的课时中讲过 Flink 的分层模型,Flink 自身提供了不同级别的抽象来支持我们开发流式或者批量处理程序,下图描述了 Flink 支持的 4 种不同级别的抽象。 Table API 和 SQL 处于最顶端,是 Flink 提供的高级 API
阅读全文
posted @ 2020-05-16 16:51 Xiaohu_BigData
阅读(5096)
评论(0)
推荐(0)
2020年5月14日
Flink学习(七) 多流转换算子 拆分合并流
摘要: 一、Split 和 Select (使用split切分过的流是不能被二次切分的) DataStream --> SplitStream : 根据特征把一个DataSteam 拆分成两个或者多个DataStream. SplitStream --> DataStream:从一个SplitStream中
阅读全文
posted @ 2020-05-14 23:58 Xiaohu_BigData
阅读(3683)
评论(0)
推荐(0)
2020年5月13日
Flink学习(六) 常用DataStreaming API
摘要: 曾经提到过,Flink 很重要的一个特点是“流批一体”,然而事实上 Flink 并没有完全做到所谓的“流批一体”,即编写一套代码,可以同时支持流式计算场景和批量计算的场景。目前截止 1.10 版本依然采用了 DataSet 和 DataStream 两套 API 来适配不同的应用场景。 DateSe
阅读全文
posted @ 2020-05-13 21:14 Xiaohu_BigData
阅读(1518)
评论(0)
推荐(0)
Flink学习(五) Flink 的核心语义和架构模型
摘要: Flink 的核心语义和架构模型我们在讲解 Flink 程序的编程模型之前,先来了解一下 Flink 中的 Streams、State、Time 等核心概念和基础语义,以及 Flink 提供的不同层级的 API。 Flink 核心概念Streams(流),流分为有界流和无界流。有界流指的是有固定大小
阅读全文
posted @ 2020-05-13 19:23 Xiaohu_BigData
阅读(854)
评论(0)
推荐(0)
2020年5月11日
Flink学习(四) Flink Table & SQL 实现wordcount Java版本
摘要: Flink Table & SQL WordCountFlink SQL 是 Flink 实时计算为简化计算模型,降低用户使用实时计算门槛而设计的一套符合标准 SQL 语义的开发语言。 一个完整的 Flink SQL 编写的程序包括如下三部分。 Source Operator:是对外部数据源的抽象,
阅读全文
posted @ 2020-05-11 23:02 Xiaohu_BigData
阅读(3473)
评论(0)
推荐(0)
Flink学习(三) 批流版本的wordcount Scala版本
摘要: 批处理代码: package com.wyh.wc import org.apache.flink.api.scala._ /** * 批处理代码 */ object WordCount { def main(args: Array[String]): Unit = { //创建一个批处理的一个环境
阅读全文
posted @ 2020-05-11 22:57 Xiaohu_BigData
阅读(1180)
评论(0)
推荐(0)
Flink学习(三) 批流版本的wordcount JAVA版本
摘要: Flink 开发环境通常来讲,任何一门大数据框架在实际生产环境中都是以集群的形式运行,而我们调试代码大多数会在本地搭建一个模板工程,Flink 也不例外。 Flink 一个以 Java 及 Scala 作为开发语言的开源大数据项目,通常我们推荐使用 Java 来作为开发语言,Maven 作为编译和包
阅读全文
posted @ 2020-05-11 22:55 Xiaohu_BigData
阅读(2217)
评论(0)
推荐(0)
上一页
1
···
4
5
6
7
8
9
10
11
12
···
23
下一页
公告