【Prometheus】存储

原文:https://prometheus.io/docs/prometheus/latest/storage/

Prometheus包括本地磁盘时间序列数据库,但也可以选择与远程存储系统集成。

本地存储

Prometheus的本地时间序列数据库以自定义格式在磁盘上存储时间序列数据。

磁盘上的布局

摄入的样品分为两个小时。每个两个小时的时间段包含一个目录,该目录包含一个或多个块文件,该文件包含该时间窗口的所有时间序列样本,以及元数据文件和索引文件(该索引文件将度量标准名称和标签索引到块文件中的时间序列) )。通过API删除系列时,删除记录存储在单独的逻辑删除文件中(而不是立即从块文件中删除数据)。

当前传入样本的块保留在内存中,尚未完全保留。它通过预写日志(WAL)防止崩溃,当Prometheus服务器在崩溃后重新启动时可以重放该日志。预写日志文件wal以128MB的段存储在目录中。这些文件包含尚未压缩的原始数据,因此它们比常规的块文件大得多。
Prometheus将至少保留3个预写日志文件,但是高流量服务器可能会看到三个以上的WAL文件,因为它需要保留至少两个小时的原始数据。

Prometheus服务器的数据目录的目录结构如下所示:

./data
├── 01BKGV7JBM69T2G1BGBGM6KB12
│   └── meta.json
├── 01BKGTZQ1SYQJTR4PB43C8PD98
│   ├── chunks
│   │   └── 000001
│   ├── tombstones
│   ├── index
│   └── meta.json
├── 01BKGTZQ1HHWHV8FBJXW1Y3W0K
│   └── meta.json
├── 01BKGV7JC0RY8A6MACW02A2PJD
│   ├── chunks
│   │   └── 000001
│   ├── tombstones
│   ├── index
│   └── meta.json
├── chunks_head
│   └── 000001
└── wal
    ├── 000000002
    └── checkpoint.00000001
        └── 00000000

请注意,本地存储的局限性在于它不是集群或复制的。因此,面对磁盘或节点中断,它不是任意可伸缩的或持久的,应该像对待任何其他类型的单节点数据库一样对待它。建议使用RAID来提高磁盘可用性,使用快照进行备份,容量规划等,以提高耐用性。通过适当的存储耐久性和计划,可以在本地存储中存储多年的数据。

或者,可以通过远程读/写API使用外部存储。这些系统在耐用性,性能和效率上差异很大,因此需要仔细评估。

有关文件格式的更多详细信息,请参见TSDB format。

压实

最初的两个小时的块最终会在后台压缩为更长的块。

压缩将创建较大的块,最多保留时间的10%,即31天,以较小者为准。

运营方面

Prometheus具有几个允许配置本地存储的标志。最重要的是:

--storage.tsdb.path:这确定Prometheus在何处写入其数据库。默认为data/。
--storage.tsdb.retention.time:这确定何时删除旧数据。默认为15d。storage.tsdb.retention如果此标志设置为默认值以外的其他值,则覆盖。
--storage.tsdb.retention.size:[EXPERIMENTAL]这确定存储块可以使用的最大字节数(请注意,这不包括WAL大小,这可能是很大的)。最旧的数据将首先被删除。默认为0或禁用。该标志是实验性的,可以在将来的版本中进行更改。支持的单位:B,KB,MB,GB,TB,PB,EB。例如:“ 512MB”
--storage.tsdb.retention:已弃用该标志,而推荐使用storage.tsdb.retention.time。
--storage.tsdb.wal-compression:此标志启用预写日志(WAL)的压缩。根据您的数据,您可以预期WAL大小将减少一半,而额外的CPU负载却很少。此标志在2.11.0中引入,默认情况下在2.20.0中启用。请注意,一旦启用,将Prometheus降级到2.11.0以下的版本将需要删除WAL。

平均而言,普罗米修斯每个样本仅使用大约1-2个字节。因此,要计划Prometheus服务器的容量,可以使用以下粗略公式:

needed_disk_space = retention_time_seconds * ingested_samples_per_second * bytes_per_sample

要调整每秒摄取的样本的速率,可以减少抓取的时间序列数(每个目标更少的目标或更少的序列),或者可以增加抓取间隔。但是,由于压缩序列中的样本,减少序列数可能更有效。

如果您的本地存储由于某种原因而损坏,最好的选择是关闭Prometheus并删除整个存储目录。您可以尝试删除单个块目录或WAL目录来解决该问题,这意味着每个块目录损失的时间窗口约为两个小时。同样,Prometheus的本地存储并不意味着持久的长期存储。

注意: Prometheus的本地存储不支持不兼容POSIX的文件系统,因为可能会发生不可恢复的损坏。不支持NFS文件系统(包括AWS的EFS)。NFS可能符合POSIX,但大多数实现均不符合。强烈建议使用本地文件系统以提高可靠性。
如果同时指定了时间和大小保留策略,则在那一刻将使用第一个触发的策略。

过期的块清除将在后台计划中进行。删除过期的块可能最多需要两个小时。过期的块在清除之前必须完全过期。

远程存储集成

Prometheus的本地存储在可伸缩性和持久性方面受到单个节点的限制。Prometheus并没有尝试解决Prometheus本身中的群集存储,而是提供了一组允许与远程存储系统集成的接口。

总览

Prometheus通过两种方式与远程存储系统集成:

Prometheus可以将提取的样本以标准格式写入远程URL。
Prometheus可以以标准化格式从远程URL读取(返回)样本数据。
远程读写架构

读取和写入协议都使用基于HTTP的快速压缩协议缓冲区编码。该协议尚未被认为是稳定的API,当可以安全地假定Prometheus和远程存储之间的所有跃点都支持HTTP / 2时,该协议将来可能会更改为在HTTP / 2上使用gRPC。

有关在Prometheus中配置远程存储集成的详细信息,请参阅Prometheus配置文档的“ 远程写入”和“ 远程读取”部分。

有关请求和响应消息的详细信息,请参阅远程存储协议缓冲区定义。

请注意,在读取路径上,Prometheus仅从远端获取一组标签选择器和时间范围的原始系列数据。PromQL对原始数据的所有评估仍在Prometheus本身中进行。这意味着远程读取查询具有一定的可伸缩性限制,因为所有必需的数据都需要先加载到查询的Prometheus服务器中,然后再在其中进行处理。但是,暂时认为支持PromQL的完全分布式评估是不可行的。

现有集成

要了解有关与远程存储系统的现有集成的更多信息,请参阅集成文档。

猜你喜欢

转载自blog.csdn.net/qq_22227087/article/details/108855637