数据集成的强大联盟:Elasticsearch、Kibana、Logstash、MySQL

通常,很多关系数据项目都使用 MySQL。 它对于标准的 CRUD 操作是有益的,但有时我们需要做额外的过程。 当我们搜索某些内容时,我们会消耗资源或合并多个表。 有时,即使不是,可能仍然需要复杂的 SQL 查询。 也许这不是正确的方法,但这是我们改变技术堆栈的不同方法。 对于这个堆栈,我们首先描述 Logstash。

更多阅读:“Elastic:开发者上手指南” 中的 “数据库数据同步” 章节。

我们什么时候使用 Logstash?

Logstash 用于必须从源接收数据、处理数据然后发送到另一个目的地的场景。 作为起点,Logstash 连接到 MySQL 读取数据,然后对其进行处理,最后将其发送到 Elasticsearch。 如下图所示

Logstash 的操作分为三个步骤:

  1. 输入 - input
  2. 过滤器 - filter
  3. 输出 - output

在添加此代码之前,我创建了一个名为 search.conf 的 Logstash 配置文件。

input{
        jdbc {
            jdbc_driver_library => "/home/mysql-connector-java-8.0.22.jar"
            jdbc_driver_class => "com.mysql.jdbc.Driver"
            jdbc_connection_string => "jdbc:mysql://${MYSQL_HOST}:3306/product?zeroDateTimeBehavior=convertToNull"
            jdbc_user => 'root'
            jdbc_password => ''
            statement => "Select product.*, DATE_FORMAT(updatedAt, '%Y-%m-%d %T') as lastTransaction from product where updatedAt > :sql_last_value"
            tracking_column => "lastTransaction"
            tracking_column_type => "timestamp"
            use_column_value => true
            lowercase_column_names => false
            clean_run => true
            schedule => "*/15 * * * * *"
        }
}

此输入运行 MySQL 查询并包含一个存储最新更新日期的跟踪列。 感谢此列,我可以有效地仅检索最后更新的行,而不是获取所有行。 现在我有了数据,我可以继续处理了。

filter {
    ruby {
        code => "
            if event.get('productStatusFK')
                productStatusFK = event.get('productStatusFK').to_i
                if productStatusFK == 0
                    event.set('productStatusFK', 'passive')
                elsif productStatusFK == 1
                    event.set('productStatusFK', 'active')
                end
            end
        "
    }
    mutate {
        remove_field => ["@version", "@timestamp"]
    }
}

下一步是将数据发送到 Elasticsearch。 我们如何执行输出操作?

output { 
    elasticsearch {
        hosts => [ "http://${ELASTIC_HOST}:9200" ]
        document_id => '%{productPK}'
        index => "product"
        doc_as_upsert => true
        action => "update"
        codec => "json"
        manage_template => true
        template_overwrite => true
    }
}

我完成了配置文件。 之后,我为 docker-compose 准备 app.yml。 它包含 4 个服务:MySQL,LogstashElasticsearchKibana。 这三个服务位于同一网络上。 由于这个网络,他们能够使用他们的服务名称相互通信。 同样对于 logstash,我创建了一个管道并在文件中对其进行了描述。 该文件使用 search.conf 文件。 所有文件已添加到 Github,下面提供了链接。 详细信息在下面的代码中。

app.yml

version: "3.7"

services:
  elasticsearch:
    image: elasticsearch:${STACK_VERSION}
    volumes:
      - type: volume
        source: es_data
        target: /usr/share/elasticsearch/data
    ports:
      - "9200:9200"
      - "9300:9300"
    environment:
      - discovery.type=single-node
      - ES_JAVA_OPTS=-Xms750m -Xmx750m
      - xpack.security.enabled=false
    networks:
      - elastic

  kibana:
    image: kibana:${STACK_VERSION}
    container_name: kibana
    ports:
      - target: 5601
        published: 5601
    depends_on:
      - elasticsearch
    networks:
      - elastic  

  logstash:
    image: logstash:${STACK_VERSION}
    depends_on:
      - elasticsearch
    volumes:
      - ./product/pipeline/:/usr/share/logstash/pipeline/
      - ./product/config/pipeline.yml:/usr/share/logstash/config/pipeline.yml
      - ./mysqlConnector/mysql-connector-java-8.0.22.jar:/home/mysql-connector-java-8.0.22.jar
    environment:
      - ELASTIC_HOST=elasticsearch
      - MYSQL_HOST=mysql
    networks:
      - elastic

  mysql:
    image: mysql:8
    restart: always
    command: --default-authentication-plugin=mysql_native_password
    environment:
      MYSQL_DATABASE: product
      MYSQL_TCP_PORT: 3306
      MYSQL_ALLOW_EMPTY_PASSWORD: "true"
    volumes:
      - ./database/product.sql:/docker-entrypoint-initdb.d/product.sql:ro
    ports:
      - "3306:3306"
    networks:
      - elastic

volumes:
  es_data:
    driver: local

networks:
  elastic:
    name: elastic
    driver: bridge

我们需要在 .env 文件中指定我们需要的 Elastic Stack 版本:

$ pwd
/Users/liuxg/data/MySQL2ElasticFlow
$ ls -al
total 24
drwxr-xr-x    9 liuxg  staff   288 Jul  9 11:00 .
drwxr-xr-x  184 liuxg  staff  5888 Jul  9 10:54 ..
-rw-r--r--    1 liuxg  staff    20 Jul  9 11:00 .env
drwxr-xr-x   12 liuxg  staff   384 Jul  9 10:54 .git
-rw-r--r--    1 liuxg  staff  3384 Jul  9 10:54 README.md
-rw-r--r--    1 liuxg  staff  1513 Jul  9 11:01 app.yml
drwxr-xr-x    3 liuxg  staff    96 Jul  9 10:54 database
drwxr-xr-x    3 liuxg  staff    96 Jul  9 10:54 mysqlConnector
drwxr-xr-x    4 liuxg  staff   128 Jul  9 10:54 product
$ cat .env
STACK_VERSION=8.8.2

让我们测试一下这个结构。 使用 docker-compose 构建并运行应用程序。如果你已经有 mysqld 正在运行,你可以使用如下的命令来停止它的运行:

mysqladmin -u root shutdown -p
docker-compose -f app.yml up

我们可以使用如下的命令来查看运行的容器:

docker ps
$ docker ps
CONTAINER ID   IMAGE                 COMMAND                  CREATED          STATUS         PORTS                                            NAMES
662fd611a7a5   mysql:8               "docker-entrypoint.s…"   2 minutes ago    Up 2 minutes   0.0.0.0:3306->3306/tcp, 33060/tcp                mysql
3c3754292b27   logstash:8.8.1        "/usr/local/bin/dock…"   38 minutes ago   Up 2 minutes   5044/tcp, 9600/tcp                               logstash
5b6b423363b5   kibana:8.8.1          "/bin/tini -- /usr/l…"   38 minutes ago   Up 2 minutes   0.0.0.0:5601->5601/tcp                           kibana
b6bd075c5189   elasticsearch:8.8.1   "/bin/tini -- /usr/l…"   38 minutes ago   Up 2 minutes   0.0.0.0:9200->9200/tcp, 0.0.0.0:9300->9300/tcp   elasticsearch

我们可以看到有四个正在运行的容器。我们可以通过如下的命令来查看 Logstash 的日志:

docker logs -f logstash

现在是时候在 Kibana 中进行查看了:

GET _cat/indices
yellow open product yUIb3AWPQKqvm6wnbSsoNQ 1 1 4 0 15.6kb 15.6kb

我们可以通过如下的方式来查看里面的文档:

GET product/_search

我们可以看到有四个文档:

很显然,它是我们之前在 database/product.sql 中写进去的四个文档:

INSERT INTO `product` (`productPK`, `productName`, `productCode`, `productStatusFK`, `active`, `updatedAt`) VALUES
(1, 'logitech', 'logitech', 1, 1, '2023-07-05 01:00:00'),
(2, 'asus', 'asus', 1, 0, '2023-07-04 01:00:00'),
(3, 'apple', 'apple', 1, 0, '2023-07-03 01:00:00'),
(4, 'hewlett packard', 'hewlett packard', 1, 1, '2023-07-02 01:00:00');

我们可以对数据进行如下的搜索:

GET product/_search?filter_path=**.hits
{
  "query": {
    "bool": {
      "must": [
        {
          "multi_match": {
            "query": "asu",
            "fields": [
              "productName",
              "productCode"
            ],
            "fuzziness": "auto"
          }
        }
      ]
    }
  }
}

我们可以得到如下的结果:

{
  "hits": {
    "hits": [
      {
        "_index": "product",
        "_id": "2",
        "_score": 0.87417156,
        "_source": {
          "productPK": 2,
          "active": false,
          "updatedAt": "2023-07-04T01:00:00.000Z",
          "productStatusFK": "active",
          "productCode": "asus",
          "productName": "asus",
          "lastTransaction": "2023-07-04 01:00:00"
        }
      }
    ]
  }
}

Hooray! 我们已经完成了从 MySQL 通过 Logstash 把文档写入到 Elasticsearch!

猜你喜欢

转载自blog.csdn.net/UbuntuTouch/article/details/131620663