StarRocks 极速全场景 MPP 数据库介绍及使用

一、简介

StarRocks 是一款高性能分析型数据仓库,使用向量化、MPP 架构、CBO、智能物化视图、可实时更新的列式存储引擎等技术实现多维、实时、高并发的数据分析。既支持从各类实时和离线的数据源高效导入数据,也支持直接分析数据湖上各种格式的数据。兼容 MySQL 协议,可使用 MySQL 客户端和常用 BI 工具对接。同时 StarRocks 具备水平扩展,高可用、高可靠、易运维等特性。广泛应用于实时数仓、OLAP 报表、数据湖分析等场景。

充分吸收关系型OLAP数据库和分布式存储系统在大数据时代的优秀研究成果,在业界实践的基础上,进一步改进优化、升级架构,并增添了众多全新功能,形成了全新的企业级产品。采用了全面向量化引擎,并配备全新设计的 CBO (Cost Based Optimizer) 优化器,查询速度(尤其是多表关联查询)远超同类产品。

支持多种数据模型(明细模型、聚合模型、更新模型),多种导入方式(批量和实时),可整合和接入多种现有系统(Spark、Flink、Hive、 ElasticSearch)。

官网文档地址:https://docs.starrocks.io/zh-cn/latest/introduction/StarRocks_intro

1. 使用场景

企业级用户的多种分析需求,包括OLAP多维分析、定制报表、实时数据分析和Ad-hoc数据分析等,包括但不限于:

  1. OLAP多维分析:用户行为分析、用户画像、财务报表、系统监控分析
  2. 实时数据分析:电商数据分析、直播质量分析、物流运单分析、广告投放分析
  3. 高并发查询:广告主表分析、Dashbroad多页面分析
  4. 统一分析:通过使用一套系统解决上述场景,降低系统复杂度和多技术栈开发成本

2. 系统架构

整个系统的核心只有 FEFrontend)、BEBackend)两类进程,不依赖任何外部组件,方便部署与维护。FEBE 模块都可以在线水平扩展,元数据和业务数据都有副本机制,确保整个系统无单点。提供 MySQL 协议接口,支持标准 SQL 语法。用户可通过 MySQL 客户端方便地查询和分析数据。

在这里插入图片描述

FE

FEStarRocks 的前端节点,负责管理元数据,管理客户端连接,进行查询规划,查询调度等工作。每个 FE 节点都会在内存保留一份完整的元数据,这样每个 FE 节点都能够提供无差别的服务。

FE 有三种角色:Leader FEFollower FEObserver FEFollower 会通过类 PaxosBerkeley DB Java Edition(BDBJE)协议自动选举出一个 Leader。三者区别如下:

  1. Leader
    LeaderFollower 中自动选出,进行选主需要集群中有半数以上的 Follower 节点存活。如果 Leader 节点失败,Follower 会发起新一轮选举。

    Leader FE 提供元数据读写服务。只有 Leader 节点会对元数据进行写操作,FollowerObserver 只有读取权限。FollowerObserver 将元数据写入请求路由到 Leader 节点,Leader 更新完数据后,会通过 BDB JE 同步给 FollowerObserver。必须有半数以上的 Follower 节点同步成功才算作元数据写入成功。

  2. Follower
    只有元数据读取权限,无写入权限。通过回放 Leader 的元数据日志来异步同步数据。参与 Leader 选举,必须有半数以上的 Follower 节点存活才能进行选主。

  3. Observer
    主要用于扩展集群的查询并发能力,可选部署。不参与选主,不会增加集群的选主压力。通过回放 Leader 的元数据日志来异步同步数据。

BE

BEStarRocks 的后端节点,负责数据存储、SQL执行等工作。

数据存储方面,StarRocksBE 节点都是完全对等的,FE 按照一定策略将数据分配到对应的 BE 节点。BE 负责将导入数据写成对应的格式存储下来,并生成相关索引。

在执行 SQL 计算时,一条 SQL 语句首先会按照具体的语义规划成逻辑执行单元,然后再按照数据的分布情况拆分成具体的物理执行单元。物理执行单元会在对应的数据存储节点上执行,这样可以实现本地计算,避免数据的传输与拷贝,从而能够得到极致的查询性能。

在进行 Stream load 导入时,FE 会选定一个 BE 节点作为 Coordinator BE,负责将数据分发到其他 BE 节点。导入的最终结果由 Coordinator BE 返回给用户。

3. 数据管理

StarRocks 使用列式存储,采用分区分桶机制进行数据管理。一张表可以被划分成多个分区,例如将一张表按照时间来进行分区,粒度可以是一天,或者一周等。一个分区内的数据可以根据一列或者多列进行分桶,将数据切分成多个 TabletTabletStarRocks 中最小的数据管理单元。每个 Tablet 都会以多副本 (replica) 的形式存储在不同的 BE 节点中。可以自行指定 Tablet 的个数和大小。 StarRocks 会管理好每个 Tablet 副本的分布信息。

在这里插入图片描述

一张表可以被切分成了多个 TabletStarRocks 在执行 SQL 语句时,可以对所有 Tablet 实现并发处理,从而充分的利用多机、多核提供的计算能力。用户也可以利用 StarRocks 数据的切分方式,将高并发请求压力分摊到多个物理节点,从而可以通过增加物理节点的方式来扩展系统支持高并发的能力。

Tablet 的分布方式与具体的物理节点没有相关性。在 BE 节点规模发生变化时,比如在扩容、缩容时,StarRocks 可以做到无需停止服务,直接完成节点的增减。节点的变化会触发 Tablet 的自动迁移。当节点增加时,一部分 Tablet 会在后台自动被均衡到新增的节点,从而使得数据能够在集群内分布的更加均衡。在节点减少时,下线机器上的 Tablet 会被自动均衡到其他节点,从而自动保证数据的副本数不变。管理员能够非常容易地实现 StarRocks 的弹性伸缩,无需手工进行任何数据的重分布。

Tablet 支持多副本存储,默认副本数为三个。多副本能够保证数据存储的高可靠以及服务的高可用。在使用三副本的情况下,一个节点的异常不会影响服务的可用性,集群的读、写服务仍然能够正常进行。另外,增加副本数还有助于提高系统的高并发查询能力。

4. 优势特性

MPP 分布式执行框架

采用 MPP (Massively Parallel Processing) 分布式执行框架。一条查询请求会被拆分成多个物理计算单元,在多机并行执行。每个执行节点拥有独享的资源(CPU、内存)。能够让单个查询请求可以充分利用所有执行节点的资源,使查询性能随着集群的水平扩展而不断提升。

在这里插入图片描述

全面向量化执行引擎

通过实现全面向量化引擎,充分发挥了 CPU 的处理能力。全面向量化引擎按照列式的方式组织和处理数据。StarRocks 的数据存储、内存中数据的组织方式,以及 SQL 算子的计算方式,都是列式实现的。按列的数据组织也会更加充分的利用 CPUCache,按列计算会有更少的虚函数调用以及更少的分支判断从而获得更加充分的 CPU 指令流水。

另一方面,StarRocks 的全面向量化引擎通过向量化算法充分的利用 CPU 提供的 SIMDSingle Instruction Multiple Data)指令。这样 StarRocks 可以用更少的指令数目,完成更多的数据操作。经过标准测试集的验证,StarRocks的全面向量化引擎可以将执行算子的性能,整体提升 3~10 倍。

除了使用向量化技术实现所有算子外,StarRocks 还在执行引擎中实现了其他的优化。比如 StarRocks 实现了 Operation on Encoded Data 的技术。对于字符串字段的操作,StarRocks 在无需解码情况下就可以直接基于编码字段完成算子执行,比如实现关联算子、聚合算子、表达式算子计算等。这可以极大的降低 SQL 在执行过程中的计算复杂度。通过这个优化手段,相关查询速度可以提升 2 倍以上。

CBO 优化器

在这里插入图片描述
在多表关联查询场景下,仅靠优秀的执行引擎没有办法获得最极致的执行性能。因为这类场景下,不同执行计划的复杂度可能会相差几个数量级。查询中关联表的数目越大,可能的执行计划就越多,在众多的可能中选择一个最优的计划,这是一个 NP-Hard 的问题。只有优秀的查询优化器,才能选择出相对最优的查询计划,从而实现极致的多表分析性能。

StarRocks 从零设计并实现了一款全新的,基于代价的优化器 CBOCost Based Optimizer)。该优化器是 Cascades Like 的,在设计时,针对 StarRocks 的全面向量化执行引擎进行了深度定制,并进行了多项优化和创新。该优化器内部实现了公共表达式复用,相关子查询重写,Lateral JoinJoin ReorderJoin 分布式执行策略选择,低基数字典优化等重要功能和优化。目前,该优化器已可以完整支持 TPC-DS 99SQL 语句。

实时更新的列式存储引擎

StarRocks 实现了列式存储引擎,数据以按列的方式进行存储。通过这样的方式,相同类型的数据连续存放。一方面,数据可以使用更加高效的编码方式,获得更高的压缩比,降低存储成本。另一方面,也降低了系统读取数据的 I/O 总量,提升了查询性能。此外,在大部分 OLAP 场景中,查询只会涉及部分列。相对于行存,列存只需要读取部分列的数据,能够极大地降低磁盘 I/O 吞吐。

StarRocks 能够支持秒级的导入延迟,提供准实时的服务能力。存储引擎在数据导入时能够保证每一次操作的 ACID。一个批次的导入数据生效是原子性的,要么全部导入成功,要么全部失败。并发进行的各个事务相互之间互不影响,对外提供 Snapshot Isolation 的事务隔离级别。

StarRocks 存储引擎不仅能够提供高效的 Partial Update 操作,也能高效处理 Upsert 类操作。使用 Delete-and-insert 的实现方式,通过主键索引快速过滤数据,避免读取时的 SortMerge 操作,同时还可以充分利用其他二级索引,在大量更新的场景下,仍然可以保证查询的极速性能。

物化视图

StarRocks 支持用户使用物化视图(materialized view)进行查询加速和数仓分层。不同于一些同类产品的物化视图需要手动和原表做数据同步,StarRocks 的物化视图可以自动根据原始表更新数据。只要原始表数据发生变更,物化视图的更新也同步完成,不需要额外的维护操作就可以保证物化视图能够维持与原表一致。不仅如此,物化视图的选择也是自动进行的。StarRocks 在进行查询规划时,如果有合适的物化视图能够加速查询,StarRocks 自动进行查询改写(query rewrite),将查询自动定位到最适合的物化视图上进行查询加速。

StarRocks 的物化视图可以按需灵活创建和删除。用户可以在使用过程中视实际使用情况来判断是否需要创建或删除物化视图。StarRocks 会在后台自动完成物化视图的相关调整。

StarRocks 的物化视图可以替代传统的 ETL 建模流程,用户无需在上游应用处做数据转换,可以在使用物化视图时完成数据转换,简化了数据处理流程。

数据湖分析

在这里插入图片描述

StarRocks 不仅能高效的分析本地存储的数据,也可以作为计算引擎直接分析数据湖中的数据。用户可以通过 StarRocks 提供的 External Catalog,轻松查询存储在 Apache Hive、Apache Iceberg、Apache Hudi、Delta Lake 等数据湖上的数据,无需进行数据迁移。支持的存储系统包括 HDFS、S3、OSS,支持的文件格式包括 Parquet、ORC、CSV

StarRocks 主要负责数据的计算分析,而数据湖则主要负责数据的存储、组织和维护。使用数据湖的优势在于可以使用开放的存储格式和灵活多变的 schema 定义方式,可以让 BI/AI/Adhoc/报表等业务有统一的 single source of truth。而 StarRocks 作为数据湖的计算引擎,可以充分发挥向量化引擎和 CBO 的优势,大大提升了数据湖分析的性能。

二、快速搭建 StarRocks

StarRocks 依赖于 JVM ,因此确保安装前已经安装好 Java 环境。

下载 StarRocks 安装包:

https://www.starrocks.io/download/community

在这里插入图片描述

下载后上传至服务器中。

解压:

tar -zxvf StarRocks-3.0.0.tar.gz

部署 FE

进入到解压目录下的 fe 下,修改 conf/fe.confJVM 的堆大小,根据实际的大小设置:

vi conf/fe.conf

在这里插入图片描述
创建元数据目录:

mkdir meta

启动FE节点:

bin/start_fe.sh --daemon

查看进程是否存在:

jps

在这里插入图片描述
此时可以使用 MySQL 客户端连接FE,用户名:root ,密码为空,端口:9030

mysql -h 192.168.244.128 -u root -P 9030

在这里插入图片描述

查看FE状况,alivetrue表示正常运行::

SHOW PROC '/frontends'\G

在这里插入图片描述
这个客户端连接不要关闭,下面需要在这加入 BE 节点。

部署 BE

进入到解压目录的 be 下,创建数据存储目录:

mkdir storage

启动 BE节点:

bin/start_be.sh --daemon

MySQL 客户端连接中加入 BE

ALTER SYSTEM ADD BACKEND "192.168.244.128:9050";

在这里插入图片描述

查看BE状况,同样alivetrue表示正常运行:

SHOW PROC '/backends'\G

在这里插入图片描述

三、StarRocks 操作体验

创建数据库:

create database testdb;

在这里插入图片描述

使用数据库:

use testdb;

在这里插入图片描述

下面分别体验下主键模型表 和 聚合模型表,主键模型写入数据,相当于delete+insert,在数据更新时效率极高,聚合模型在写入数据时就预先进行聚合,避免查询时再聚合计算。

假设成绩表如下,使用主键模型,由于只有一个 BE 节点,这里副本数设为 1

CREATE TABLE IF NOT EXISTS grade (
    id BIGINT NOT NULL,
    name STRING NOT NULL,
    sex TINYINT NULL,
	grade INT NULL
) PRIMARY KEY (id)
DISTRIBUTED BY HASH(id)
PROPERTIES("replication_num" = "1");

在这里插入图片描述

成绩聚合表,使用聚合模型:

CREATE TABLE IF NOT EXISTS agg_grade (
    name VARCHAR(20) NOT NULL COMMENT "name",
    sum_grade BIGINT SUM DEFAULT "0",
    max_grade BIGINT MAX DEFAULT "0"
)
DISTRIBUTED BY HASH(name)
PROPERTIES("replication_num" = "1");

在这里插入图片描述
写入测试数据:

INSERT INTO grade(id, name, sex, grade) VALUES(1,'小明',1,90);
INSERT INTO grade(id, name, sex, grade) VALUES(1,'小明',1,100);
INSERT INTO grade(id, name, sex, grade) VALUES(2,'小红',1,90);
INSERT INTO grade(id, name, sex, grade) VALUES(3,'小兰',1,90);
INSERT INTO grade(id, name, sex, grade) VALUES(4,'小六',1,90);

INSERT INTO agg_grade(name, sum_grade, max_grade) VALUES('张三',90,90);
INSERT INTO agg_grade(name, sum_grade, max_grade) VALUES('张三',90,90);
INSERT INTO agg_grade(name, sum_grade, max_grade) VALUES('张三',90,90);
INSERT INTO agg_grade(name, sum_grade, max_grade) VALUES('李四',90,90);
INSERT INTO agg_grade(name, sum_grade, max_grade) VALUES('李四',90,90);
INSERT INTO agg_grade(name, sum_grade, max_grade) VALUES('李四',90,90);
INSERT INTO agg_grade(name, sum_grade, max_grade) VALUES('李四',90,90);

查询 grade 表:

SELECT * FROM grade;

在这里插入图片描述
查询 agg_grade 表:

SELECT * FROM agg_grade;

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_43692950/article/details/130791185