随笔分类 - Java
摘要:Java 的注释有 2 种 //. 和 /*...*/ IntelliJ IDEA 可以使用下面的快捷键来对代码进行注释: Ctrl+/: for 单行注释 (//…) Ctrl+Shift+/: 块注释 (/…/) Java 注释类型 如果你对上面的所谓单行注释和块注释不明白的话。 就看看下面的图
阅读全文
摘要:英文标题【Arrays.asList vs new ArrayList(Arrays.asList())】 概述 在本文章中,我们会对 Arrays.asList(array) 和 ArrayList(Arrays.asList(array)) 之间的区别进行一些对比。 Arrays.asList
阅读全文
摘要:下面的表格主要对加载 Kafka 流数据的索引属性进行参数描述。 字段(Field)类型(Type)描述(Description)是否必须(Required) bitmap Object 针对 bitmap indexes 使用的是压缩格式。应该是一个 JSON 对象,请参考 Bitmap type
阅读全文
摘要:tuningConfig 的配置是可选的,如果你不在这里对这个参数进行配置的话,Druid 将会使用默认的配置来替代。 字段(Field)类型(Type)描述(Description)是否必须(Required) type String 索引任务类型, 总是 kafka。 Y maxRowsInMe
阅读全文
摘要:从字面上面就可以理解上面 2 个定义的不同。 如果要直接解释就是: Node.js:NodeJS 项目开发需要使用的解释器 npm:随着 Node.js 一同安装的包管理器(主要用来管理包)。 nvm:需要单独安装,主要对项目使用的 Node.js 解释器进行管理。 用土话说,因为有 P,所以管理包
阅读全文
摘要:nvm 的安装还是比较简单的,主要是需要完成下载安装和路径配置即可。 首先可以使用命令 nvm 来查看当前系统中有没有安装 nvm。 下载安装 可以访问下面的地址来找到最新的 nvm 的安装版本: Releases · coreybutler/nvm-windows · GitHub 需要下载的程序
阅读全文
摘要:在使用 nvm 安装新的 nvm 版本之前,请确定你的操作系统中已经安装了 nvm。 安装的方法,请访页面:Windows 中 Node.js 中 nvm 的安装配置和使用 中的内容。 安装新版本 假设我们需要安装的新版本为 8.9.4,那么你需要执行命令 nvm install 8.9.4。 只需
阅读全文
摘要:Kafka 索引服务(indexing service)支持 inputFormat 和 parser 来指定特定的数据格式。 inputFormat 是一个较新的参数,针对使用的 Kafka 索引服务,我们建议你对这个数据格式参数字段进行设置。 不幸的是,目前还不能支持所有在老的 parser 中
阅读全文
摘要:可用的字段和配置信息,请参考表格。 需要注意的是配置的段的定义为为: ioConfig 字段(Field)类型(Type)描述(Description)是否必须(Required) topic String 从 Kafka 中读取数据的 主题(topic)名。你必须要指定一个明确的 topic。例如
阅读全文
摘要:有经验的面试人员对你是不是背的答案一问便知。 学习的过程应该是理解后用自己语言表述。 背的答案会非常机械,没有任何可扩展的地方,或者稍微变一下你就可能不知道了。 如果是理解了,哪怕不是完全正确,甚至表达和设计上面都有问题,这种情况与机械的背答案是 2 回事。 面试的人如果有经验,一问便知。 要不要背
阅读全文
摘要:针对这个问题的短回答就是:没有任何理由保存代码为 GBK。 将项目的文件或者数据库字符集等设计到编码的地方使用 GBK,会带来很严重的兼容性问题。 保存为 GBK 通常是历史遗留问题,尤其是老的 C/S 架构项目,代码多为 GB2312 / GBK ,在早期的 Java EJB 项目中很多也会使用
阅读全文
摘要:在现代大型数据环境下,消息的发送和处理就变得非常重要了。 作为消息发送处理领域里面的大象,那就是 Kafka 了。 Kafka 和 Kinesis 直接的关系 在对比 Kafka 和 Kinesis 和之前,我们需要对 Kinesis 有所了解。 什么是 Kafka Apache Kafka 是一个
阅读全文
摘要:查询你的数据 当数据发送到 Kafka 后,Druid 应该能够马上查询到导入的数据的。 请访问 query tutorial 页面中的内容来了解如何针对新导入的数据运行一些查询。 清理 如果你希望其他的一些入门教程的话,你需要首先关闭 Druid 集群;删除 var 目录中的所有内容;再重新启动
阅读全文
摘要:为了能够直接启动一个服务,我们需要提交一个 supervisor 配置参数到 Druid overlord 进程中,你可以直接通过 Druid 的包运行下面的命令: curl -XPOST -H'Content-Type: application/json' -d @quickstart/tutor
阅读全文
摘要:在控制台中,单击 Submit supervisor 来打开一个 supervisor 对话框。 请将下面的内容配置参数拷贝张贴到打开的对话框中,然后单击 Submit 提交。 { "type": "kafka", "spec" : { "dataSchema": { "dataSource": "
阅读全文
摘要:将数据载入到 Kafka 现在让我们为我们的主题运行一个生成器(producer),然后向主题中发送一些数据! 在你的 Druid 目录中,运行下面的命令: cd quickstart/tutorial gunzip -c wikiticker-2015-09-12-sampled.json.gz
阅读全文
摘要:本教程演示了如何使用Druid的Kafka索引服务将数据从Kafka流加载到Apache Druid中。 假设你已经完成了 快速开始 页面中的内容或者下面页面中有关的内容,并且你的 Druid 实例已使用 micro-quickstart 配置在你的本地的计算机上运行了。到目前,你还不需要加载任何数
阅读全文
摘要:启动 Master 服务器 拷贝 Druid 的分发包和你修改过的配置到 Master 服务器上。 如果你已经在你的本地计算机上修改了配置,你可以使用 rsync 来进行拷贝。 rsync -az apache-druid-apache-druid-0.21.1/ MASTER_SERVER:apa
阅读全文
摘要:如果你的服务使用了防火墙,或者一些网络配置中限制了端口的访问的话。那么你需要在你的服务器上开放下面的端口,并运行数据进行访问: Master 服务器 1527 (Derby 原数据存储;如果你使用的是其他的数据库,例如 MySQL 或 PostgreSQL 的话就不需要) 2181 (ZooKeep
阅读全文
摘要:从一个单独部署服务器上进行合并到集群的时候,需要对下面的一些配置进行调整。 Master 服务 如果你已经有一个已经存在并且独立运行的独立服务器部署的话,例如在页面 single-server deployment examples 中部署的服务器,下面的这个示例将会帮助你将 Coordinator
阅读全文

浙公网安备 33010602011771号