会员
众包
新闻
博问
闪存
赞助商
Trae
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
gyhuminyan
博客园
首页
新随笔
联系
订阅
管理
随笔 - 37
文章 - 0
评论 - 5
阅读 -
11万
1
2
3
4
下一页
2020年10月20日
主机与虚拟机ping不通
摘要: 如果防火墙等一切原因都考虑完了还不行,看看网关是否配正确。
阅读全文
posted @ 2020-10-20 10:32 gyhuminyan
阅读(100)
评论(0)
推荐(0)
2018年9月6日
chrome 69 ui 回退到以前
摘要: 新的chrome ui真的是 不能接受(巨丑),以前不喜欢火狐就是这个原因。 废话少说,解决方法: 1.浏览器输入 chrome://flags/#top-chrome-md 2.将default改为normal 3.重启 这下,舒服多了
阅读全文
posted @ 2018-09-06 10:42 gyhuminyan
阅读(659)
评论(0)
推荐(0)
2018年8月3日
单例类
摘要: 如果一个类始终只能创建一个实例, 使用单例类模式
阅读全文
posted @ 2018-08-03 11:57 gyhuminyan
阅读(154)
评论(0)
推荐(0)
2018年7月26日
转:Python- 解决PIP下载安装速度慢
摘要: 让PIP源使用国内镜像,提升下载速度和安装成功率。 对于Python开发用户来讲,PIP安装软件包是家常便饭。但国外的源下载速度实在太慢,浪费时间。而且经常出现下载后安装出错问题。所以把PIP安装源替换成国内镜像,可以大幅提升下载速度,还可以提高安装成功率。 国内源: 新版ubuntu要求使用htt
阅读全文
posted @ 2018-07-26 11:39 gyhuminyan
阅读(248)
评论(0)
推荐(0)
2018年6月13日
Detected cartesian product for LEFT OUTER join
摘要: spark做表连接的时候出现这个错误, Exception in thread "main" org.apache.spark.sql.AnalysisException: Detected cartesian product for LEFT OUTER join between logical
阅读全文
posted @ 2018-06-13 18:30 gyhuminyan
阅读(6594)
评论(0)
推荐(0)
2018年5月9日
在Kafka中使用Avro编码消息:Producter篇
摘要: 本文将介绍如何在 Kafka 中使用 Avro 来序列化消息,并提供完整的 Producter 代码共大家使用。 Avro Avro 是一个数据序列化的系统,它可以将数据结构或对象转化成便于存储或传输的格式。Avro设计之初就用来支持数据密集型应用,适合于远程或本地大规模数据的存储和交换。因为本文并
阅读全文
posted @ 2018-05-09 11:16 gyhuminyan
阅读(4429)
评论(0)
推荐(0)
如何为Kafka集群选择合适的Topics/Partitions数量
摘要: 这是许多kafka使用者经常会问到的一个问题。本文的目的是介绍与本问题相关的一些重要决策因素,并提供一些简单的计算公式。 越多的分区可以提供更高的吞吐量 首先我们需要明白以下事实:在kafka中,单个patition是kafka并行操作的最小单元。在producer和broker端,向每一个分区写入
阅读全文
posted @ 2018-05-09 10:48 gyhuminyan
阅读(1099)
评论(0)
推荐(0)
Spark Streaming 中管理 Kafka Offsets 的几种方式
摘要: Offset管理概述 Spark Streaming集成了Kafka允许用户从Kafka中读取一个或者多个topic的数据。一个Kafka topic包含多个存储消息的分区(partition)。每个分区中的消息是顺序存储,并且用offset(可以认为是位置)来标记消息。开发者可以在他的Spark
阅读全文
posted @ 2018-05-09 10:37 gyhuminyan
阅读(1139)
评论(0)
推荐(0)
Kafka 在华泰证券的探索与实践
摘要: 引言 Apache Kafka 发源于 LinkedIn,于 2011 年成为 Apache 的孵化项目,随后于 2012 年成为 Apache 的顶级项目之一。按照官方定义,Kafka 是一个分布式流平台,具备流数据的发布及订阅(与消息队列或企业级消息系统类似)能力、容错方式的流数据存储能力以及流
阅读全文
posted @ 2018-05-09 10:23 gyhuminyan
阅读(1308)
评论(0)
推荐(0)
Kafka 客户端是如何找到 leader 分区的
摘要: 在正常情况下,Kafka中的每个Topic都会有很多个分区,每个分区又会存在多个副本。在这些副本中,存在一个leader分区,而剩下的分区叫做 follower,所有对分区的读写操作都是对leader分区进行的。所以当我们向Kafka写消息或者从Kafka读取消息的时候,必须先找到对应分区的Lead
阅读全文
posted @ 2018-05-09 09:57 gyhuminyan
阅读(1389)
评论(0)
推荐(0)
1
2
3
4
下一页
公告
昵称:
gyhuminyan
园龄:
8年6个月
粉丝:
10
关注:
2
<
2025年8月
>
日
一
二
三
四
五
六
27
28
29
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
6
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
我的标签
TensorFlow
(3)
ubuntu、hive
(2)
ubuntu、permission denied
(1)
ubuntu、mysql
(1)
ubuntu、/etc/profile、环境变量
(1)
sparkstreaming
(1)
spark
(1)
SecureCRT、Ubuntu
(1)
mysql
(1)
随笔分类
kafka(6)
scala(4)
spark(8)
随笔档案
2020年10月(1)
2018年9月(1)
2018年8月(1)
2018年7月(1)
2018年6月(1)
2018年5月(6)
2018年4月(1)
2018年3月(1)
2018年1月(4)
2017年11月(9)
2017年9月(1)
2017年7月(1)
2017年3月(9)
阅读排行榜
1. 问题root@localhost's password:localhost:permission denied,please try again(15417)
2. hive2.1.1安装部署(15406)
3. 安装完Hadoop之后,命令行输入hadoop或hdfs却找不到命令的解决方法(13981)
4. 深度学习的57个术语(13953)
5. Java编写程序将数据存入Kafka中(10524)
评论排行榜
1. Sparkstreaming and Kafka(3)
2. hive2.1.1安装部署(1)
3. 问题root@localhost's password:localhost:permission denied,please try again(1)
推荐排行榜
1. 问题root@localhost's password:localhost:permission denied,please try again(5)
2. 深度学习的57个术语(4)
3. scala快速排序(1)
4. Sparkstreaming and Kafka(1)
5. 深度学习的57个专业术语(1)
最新评论
1. Re:Sparkstreaming and Kafka
@ gyhuminyan引用分为两种情况,一种是spark并没有获取到kafka里的数据,也就是说数据依旧在kafka队列里。第二种情况是spark sreaming虽然接收到了kafka的数据,但是...
--Leib.nitz
2. Re:Sparkstreaming and Kafka
分为两种情况,一种是spark并没有获取到kafka里的数据,也就是说数据依旧在kafka队列里。第二种情况是spark sreaming虽然接收到了kafka的数据,但是spark处理需要一个过程,...
--gyhuminyan
3. Re:Sparkstreaming and Kafka
-"因为由消费者成功轮询的消息可能还没有导致Spark输出操作,导致未定义的语义。 "请问这段话是指spark已经返回kafka上的events给user处理,且已经由spark commit off...
--Leib.nitz
4. Re:hive2.1.1安装部署
写的很好,很详细,谢谢了
--W焕
5. Re:问题root@localhost's password:localhost:permission denied,please try again
试了一个多礼拜,直到看到你的这篇!无论何如也要注册下评论一句表达我的感激之情!!不知道lz是怎么研究出来的,请教!
--lossless
点击右上角即可分享