ELK(elasticsearch+kibana+logstash)搜索引擎(一): 环境搭建

1.ELK简介

 

  这里简单介绍一下elk架构中的各个组件,关于elk的详细介绍的请自行百度

  • Elasticsearch是个开源分布式搜索引擎,是整个ELK架构的核心

  • Logstash可以对数据进行收集、过滤,存储到ELasticsearch中

  • Kibana 可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志

  

  下面是各个组件在架构中起到的作用

 

 2.组件下载

elasticsearch对版本极其敏感,所以一定要注意elk所有组件务必保持版本一致!

elk组件下载地址》》https://www.elastic.co/cn/downloads/

 

3.elasticsearch配置

如果是本机使用elasticsearch基本上解压即用,只需要注意将elasticsearch配置成外网可访问,方法如下:

修改elasticsearch/config目录下的elasticsearch.yml文件

network.host: 0.0.0.0

将network.host设置为0.0.0.0即可开启外网访问,elasticsearch默认端口9200如果需要修改还是在elasticsearch.yml文件中

http.port: 9200

elasticsearch设置数据存储路径以及目录存储路径

path.data: /path/to/data
path.logs: /path/to/logs

启动方式:

  windows下双击elasticsearch.bat启动

  linux下执行elasticsearch启动 -d为后台启动

4.logstash配置

整个elk架构中logstash需要配置的地方最多,首先logstash起到的作用是收集数据导入至elasticsearch中,收集的方法有很多中,关系型数据库,非关系型数据库亦或者文件这里主要讲一下关系型数据库的导入

先贴出笔者的配置文件

input {
    jdbc {
     #设置数据库url jdbc_connection_string => "jdbc:mysql://localhost:3306/elk" #账号与密码
     jdbc_user => "root" jdbc_password => "root" #对应数据库的jar包位置以及jdbc类型
     jdbc_driver_library => "/root/mysql-connector-java-5.1.46.jar" jdbc_driver_class => "com.mysql.jdbc.Driver" #每次启动logstash是否重新加载数据
     clean_run => false #编码格式
     codec => plain { charset => "UTF-8"} #是否使用user_column_value 记录每次查询的值,这个必须为递增的值,在sql中可以使用:sql_last_value取出该值,如果不设置即默认该值为上次执行sql的时间
     use_column_value => false
     #sql语句位置 statement_filepath => "/root/product_list.sql" #记录上一次执行时间的文件位置
     last_run_metadata_path => "/root/product_last_run_time.txt" #使用corn表达式定义执行周期
     schedule => "*/30 * * * * *"
     #多个配置文件时定义该次查询集的名字,方便output、filter进行逻辑处理 type => "test"
  #时区 jdbc_default_timezone => "Asia/Shanghai" } } output {
#使用if判断type if [type] == "test"{
#输出时的数据类型 stdout { codec => json_lines }
#输出到elasticsearch elasticsearch {
     #elasticsearch地址 hosts => ["localhost:9200"] #存储到elasticsearch中的索引名
     index => "test"
     #存到elasticsearch中的类型名 document_type => "test"
     #存到elasticsearch中的id document_id => "%{id}"
   #使用模板存储到elasticsearch中 template_name => "test"
     #模板位置 template => "/root/logstash-ik.json" } } }

在数据量大的期初导入数据可能会因为数据量太大导致jvm内存溢出,修改logstash/config下jvm.options文件

-Xms1g
-Xmx1g

根据机器配置去修改jvm的最大内存至8g或者更多

如果这样都不能解决内存溢出的问题,笔者这里建议将logstash数据存储从内存放到本地磁盘,这样会牺牲速率但解决了期初数据量太大的问题

修改logstash/config下logstash.yml文件

配置如下:

queue.type: persisted
queue.max_bytes: 10240mb

将queue.type设置为persisted,queue.max_bytes设置队列的最大存储数量

还有一些关于logstash性能上的优化

#logstash同时工作的线程数量,默认为服务器cpu核数,一般在cpu核数的四倍及以下合理
pipeline.workers: 2
#logstash一次操作的数据量,可以根据服务器内存来调整 pipeline.batch.size: 125

还有一些其他的优化可以自行参考logstash.yml文件

5.Kibana配置

Kibana需要修改的配置不多,需要注意如果要开启远程访问Kibana需要修改

KIBANA/config/kibaba.yml下的

server.host:"localhost"更改为

server.host: "0.0.0.0" 就可以远程访问Kibana

 

关于elk搜索引擎的环境搭建以及配置就到这里,要配置的地方也不多,基本上是开包即用,后面会介绍如何使用关于elasticsearch的使用以及讲解如何使用elk做一个电商平台的搜索引擎。

3

 

posted @ 2019-04-09 22:23  waen  阅读(1007)  评论(2编辑  收藏  举报