InfluxDB _internal 1.x 测量和字段
默认情况下,InfluxDB 会生成内部指标并保存到 _internal 数据库。使用这些指标来监控 InfluxDB 和 InfluxDB Enterprise,并创建警报以在出现问题时通知您。
在生产环境中禁用 _internal 数据库
InfluxData 不 推荐在生产集群中使用 _internal 数据库。 这会产生不必要的开销,尤其是对于繁忙的集群,可能会使一个已经负载的集群过载。 存储在 _internal 数据库中的指标主要用于测量工作负载性能,并且应仅在非生产环境中进行测试。
要禁用 _internal 数据库,请在您的 InfluxDB 配置文件 的 [monitor] 部分将 store-enabled 设置为 false。
# ...
[monitor]
# ...
# Whether to record statistics internally.
store-enabled = false
#...
在外部监控器中存储内部指标
要在生产集群中监控 InfluxDB _internal 指标,请使用 Telegraf 和 influxdb 输入插件 从 InfluxDB /debug/vars 端点捕获这些指标并将其存储在外部 InfluxDB 监控实例中。有关更多信息,请参见 配置监视者的监视者。
当使用“观察者的观察者(WoW)”配置时,InfluxDB
指标字段键前面添加了 infuxdb_,但与下面列出的
内容基本相同。
可视化 InfluxDB 内部指标
使用InfluxDB OSS Monitor dashboard或InfluxDB Enterprise Monitor dashboard来可视化InfluxDB _internal 指标。
InfluxDB _内部测量和字段
ae (仅限企业版)
cluster(仅限企业版)
hh (仅限企业版)
hh_database (仅限企业)
hh_node (仅限企业版)
hh_processor (仅限企业版)
rpc (仅限企业版)
- cacheCompactionDuration
- cacheCompactionErr
- cacheCompactions
- cacheCompactionsActive
- tsmFullCompactionDuration
- tsmFullCompactionErr
- tsmFullCompactionQueue
- tsmFullCompactions
- tsmFullCompactionsActive
- tsmLevel1CompactionDuration
- tsmLevel1CompactionErr
- tsmLevel1CompactionQueue
- tsmLevel1Compactions
- tsmLevel1CompactionsActive
- tsmLevel2CompactionDuration
- tsmLevel2CompactionErr
- tsmLevel2CompactionQueue
- tsmLevel2Compactions
- tsmLevel2CompactionsActive
- tsmLevel3CompactionDuration
- tsmLevel3CompactionErr
- tsmLevel3CompactionQueue
- tsmLevel3Compactions
- tsmLevel3CompactionsActive
- tsmOptimizeCompactionDuration
- tsmOptimizeCompactionErr
- tsmOptimizeCompactionQueue
- tsmOptimizeCompactions
- tsmOptimizeCompactionsActive
- pointReq
- pointReqHH (Enterprise only)
- pointReqLocal (Enterprise only)
- pointReqRemote (Enterprise only)
- pointsWrittenOK
- req
- subWriteDrop
- subWriteOk
- valuesWrittenOK
- writeDrop
- writeError
- writeOk
- writePartial (Enterprise only)
- writeTimeout
企业版(仅限企业版)
与InfluxDB企业集群中反熵(AE)引擎相关的测量统计信息。
接收的字节数
数据节点接收到的字节数。
错误
导致错误的反熵工作的总数。
职位
数据节点执行的作业总数。
活动工作
活动(当前正在执行)作业的数量。
集群(仅限企业版)
该 cluster 测量用于跟踪与 InfluxDB Enterprise 中数据节点的聚类特征相关的统计信息。系列上的标签指示了统计数据的来源主机。
复制碎片请求
从一个数据节点复制分片到另一个数据节点的内部请求数。
创建迭代器请求
集群中来自其他数据节点的读取请求数量。
扩展源请求
发往此节点的远程节点请求的数量,用于查找与特定正则表达式匹配的测量值。 表示从不同数据节点发起的正则表达式的SELECT,然后向此节点发送了内部请求。 目前没有统计跟踪在特定节点上发起了多少使用正则表达式而不是固定测量的查询。
字段维度请求
关于此数据节点的字段及其关联类型和测量标签键的远程节点请求的信息数量。
迭代器成本请求
迭代器成本的内部请求数量。
打开连接
跟踪数据节点正在处理的开放连接数量(包括计数在单个 yamux 连接上复用的逻辑连接)。
移除分片请求
从该数据节点删除分片的内部请求数量。 独占性地通过使用 influxd-ctl remove shard 命令递增。
写入分片失败
来自远程节点的内部写请求失败的总数。 这与InfluxDB shard stat writeReqErr 是同类的。 一个通过HTTP的写请求被节点A接收。 节点A在本地没有这个分片,因此它创建了一个内部请求给节点B,指示写入什么以及写入哪个分片。 如果节点B看到这个请求,并且有任何问题,节点B会增加它自己的writeShardFail。 根据问题的不同,在大多数情况下节点B也会增加它从InfluxDB OSS继承的writeReqErr统计数据。 如果节点A在本地拥有分片,就不会有内部请求来写入数据到远程节点,因此writeShardFail将不会增加。
写入分片点请求
来自任何远程节点的每个内部写入请求中的点数,无论成功与否。
写分片请求
来自远程数据节点的内部写请求数量,无论成功与否。
cq
与连续查询(CQs)相关的测量统计信息。
查询失败
执行但失败的连续查询总数。
查询成功
成功执行的连续查询的总数。 注意,在某些情况下,如果启动了一个CQ但实际上并未运行,例如,由于重新采样间隔配置错误,这个值可能会增加。
数据库
测量数量
指定数据库中当前的测量数量。
序列基数值是估算值,基于 HyperLogLog++ (HLL++)。 当有数千或数百万个测量或序列时,估算返回的数字应该在相对较小的误差范围内是准确的。
数列
指定数据库的当前系列基数。 系列基数值是基于 HyperLogLog++ (HLL++) 的估算。 当存在数千或数百万个测量或系列时,估算返回的数字应该在相对较小的误差范围内准确。
hh(企业版专用)
该 hh 测量统计跟踪导致在 InfluxDB 企业版中产生新的提示转交 (HH) 处理器的事件。
该 hh 测量有一个额外的标签:
path- 磁盘上持久化提示转交队列的路径。
写分片请求
针对远程节点,由提示移交引擎处理的初始写入请求的数量。
对此节点的后续写入请求,如果目标是同一个远程节点,则不会增加此统计数据。
此统计数据在influxd重启时重置为0,无论上次进程存活时的状态如何。
当HH“超系统”指示为该节点排队写入时,并且目标节点的“子系统”不存在且必须创建,并且成功创建“子系统”时,该值会递增。
如果在进程启动时,远程节点的HH文件存在,则将不会达到增加此统计的分支。
写入分片请求点
对远程节点的提示接管引擎的初始请求中每个点的写请求数量。
hh_database(仅限企业)
该 hh_database 测量聚合了单个数据库和节点的所有提示交接队列。 这允许对单个数据库到目标节点的总队列大小进行准确报告。
倒数 hh_database 测量有两个额外的标签:
db— 数据库的名称node— 节点标识符
已读取字节数
从提示转交队列读取并发送至目标数据节点的字节大小。 注意,如果数据节点进程在HH队列中有数据时重新启动, bytesRead 可能会变为一个大于 bytesWritten 的数字。 提示转交的写入是在由 retry-concurrency 设置确定的并发批处理中发生的。 如果单个写入成功,则指标会增加。 如果整个批次中的任何写入失败,则整个批次被视为不成功,批次的每一部分将稍后重试。这不是此统计信息的预期行为。 bytesRead 可能更大的另一种情况是在进程重启后。 假设在启动时,HH中仍有1000字节的数据排队等待来自上一个进程的运行。 重新启动后, bytesRead 和 bytesWritten 都被设置为零。 假设HH被正确清空,并且没有未来的写入需要HH,则统计信息将显示读取1000字节和写入0字节。
在崩溃或重启后重置为零,即使HH队列非空。
写入字节数
写入提示交接队列的总字节数。 请注意,此统计信息仅跟踪在当前进程生命周期内写入的字节数。 重新启动或崩溃后,即使提示交接队列不为空,此统计信息也会重置为零。
队列字节数
提示交接队列中剩余的字节总数。 这个统计信息应该准确地完全跟踪等待发送到远程节点的编码数据的字节数。
这个统计数据在重启时应保持正确,不像 bytesRead 和 bytesWritten(见 #780)。
队列深度
提示转交队列中的段总数。HH队列是一系列10MB的“段”文件。 这是一个粗略的统计数据,大致表示为远程节点排队的数据量。 queueDepth 值可以让您了解队列何时在增长或缩小。
写入被阻止
由于并发HH请求的数量超过限制,写入的数量被阻塞。
写入已丢弃
因写入似乎已损坏,从HH队列中丢失的写入次数。
写节点请求
成功将一批写请求写入目标节点的总数。
写节点请求失败
从提示转交队列到目标节点写入一批数据时失败的写请求总数。
写入节点请求点
从HH队列成功写入目标节点fr的总点数
写分片请求
每个写入批处理请求排入提示交接队列的总数。
写入分片请求点
提示交接队列中入队的总点数。
hh_node(仅限企业版)
在 InfluxDB Enterprise 1.9.8 及更高版本中可用。
hh_node 计量存储给定节点所有队列(分片)的提示交接统计信息。
该 hh_node 测量有一个额外的标签:
node- 记录的指标的目标节点。
队列总大小
单个节点所有提示转交队列使用的磁盘空间总字节数。 追踪给定节点所有提示转交队列的磁盘使用情况(不是待处理的字节)。由于提示转交队列的实现,处理字节和从磁盘中移除字节之间存在延迟。
queueTotalSize 用于确定节点的提示转交队列何时达到配置在 hinted-handoff max-size 参数中的最大大小。
hh_processor(仅限企业版)
该 hh_processor 测量存储单个队列(分片)的统计信息。 在 InfluxDB 企业版中,每个数据节点上都有一个提示转移处理器。
该 hh_processor 测量有两个额外的标签:
node- 记录的指标的目标节点。path- 磁盘上持久提示交接队列的路径。
对一个主机的 hh_processor 统计仅在当前进程的生命周期内是准确的。
如果进程崩溃或重新启动,bytesRead 和 bytesWritten 会重置为零,即使HH队列不是空的。
已读取字节数
从提示交接队列中读取并发送到目标数据节点的字节大小。注意,如果数据节点进程在HH队列中仍有数据时重新启动,bytesRead 可能会 settled 到一个比 bytesWritten 更大的数字。提示交接写入在由 retry-concurrency 设置决定的并发批次中发生。如果单个写入成功,指标会增加。如果整个批次中的任何写入失败,则整个批次被视为不成功,并且批次中的每一部分都会在稍后重试。这不是该统计信息的预期行为。bytesRead 可能大于的另一种情况是在进程重启后。假设在启动时,HH 中仍有 1000 字节在队列中,来自于上一个进程运行。重启后立即,bytesRead 和 bytesWritten 都被设置为零。假设HH被正确处理,并且没有未来的写入需要HH,那么统计数据将显示读取 1000 字节和写入 0 字节。
在崩溃或重启后重置为零,即使HH队列非空。
写入字节数
写入提示交接队列的总字节数。 请注意,此统计信息仅跟踪在当前进程生命周期内写入的字节数。 重新启动或崩溃后,即使提示交接队列不为空,此统计信息也会重置为零。
队列字节数
提示交接队列中剩余的字节总数。 这个统计信息应该准确地完全跟踪等待发送到远程节点的编码数据的字节数。
该统计信息应在重启时保持正确, unlike bytesRead 和 bytesWritten
(见 #780).
队列深度
提示转交队列中的段总数。HH队列是一系列10MB的“段”文件。 这是一个粗略的统计数据,大致表示为远程节点排队的数据量。 queueDepth 值可以让您了解队列何时在增长或缩小。
写入被阻止
由于并发HH请求的数量超过限制,写入的数量被阻塞。
写入已丢弃
因写入似乎已损坏,从HH队列中丢失的写入次数。
写节点请求
成功将一批写请求写入目标节点的总数。
写节点请求失败
从提示转交队列到目标节点写入一批数据时失败的写请求总数。
写入节点请求点
从HH队列成功写入目标节点fr的总点数
写分片请求
每个写入批处理请求排入提示交接队列的总数。
写入分片请求点
提示交接队列中入队的总点数。
httpd
该 httpd 测量存储与 InfluxDB HTTP 服务器相关的字段。
认证失败
由于需要认证但未提供或提供不正确而中止的HTTP请求数量。
客户端错误
由于客户端错误而产生的HTTP响应数量,带有4XX HTTP状态码。
流量查询请求
处理的 Flux 查询请求数量。
flux查询请求持续时间(纳秒)
以纳秒为单位的执行 Flux 查询请求所花费的持续时间(实时)。
pingReq
InfluxDB HTTP 服务器提供 /ping HTTP 端点的次数。
未写入的分数
存储引擎丢失的点数。
写入积分失败
HTTP /write 端点接受的点数,但无法被持久化。
写入点成功
成功被HTTP /write 端点接受并持久化的点数。
prom读取请求
对Prometheus /read端点的读取请求数量。
prom写请求
对Prometheus /write 端点的写请求数量。
查询请求
查询请求的数量。
查询请求持续时间纳秒
总查询请求持续时间,以纳秒(ns)为单位。
查询响应字节
查询响应中返回的字节总数。
恢复的恐慌
HTTP处理程序恢复的恐慌总数。
请求
提供的HTTP请求总数。
请求活动
当前活动请求的数量。
请求持续时间(纳秒)
在HTTP请求中花费的持续时间(实际时间),以纳秒为单位。
服务器错误
由于服务器错误而产生的HTTP响应数量。
状态请求
使用HTTP /status 端点处理的状态请求数量。
值写入成功
成功接受并持久化的值(字段)数量,由HTTP /write 端点提供。
写请求
通过 HTTP /write 端点服务的写请求数量。
写请求活动
当前活跃写请求的数量。
写请求字节
通过使用HTTP /write 端点,写入请求接收到的行协议数据的总字节数。
写请求持续时间(纳秒)
通过 /write HTTP 端点服务的写请求的持续时间(壁钟时间),以纳秒为单位。
查询执行器
与InfluxDB引擎的查询执行器使用相关的queryExecutor统计信息。
活动查询
当前正在处理的活跃查询的数量。
执行的查询
执行的查询数量(已开始)。
查询完成
已完成执行的查询数量。
查询持续时间(纳秒)
每个执行的查询的持续时间(墙时间),以纳秒为单位。 如果一个查询从开始到结束耗时1000纳秒,另一个查询从开始到结束耗时500纳秒, 并且在第一个查询完成之前运行,那么统计数据 将增加1500。
恢复的恐慌
查询执行器恢复的恐慌数量。
rpc(仅限企业)
与 InfluxDB 企业集群中 RPC 调用的使用相关的 rpc 测量统计信息。
空闲流
所有实时 TCP 连接中空闲复用流的数量。
实时连接
当前与其他节点的活动TCP连接数。
直播流
当前所有直播TCP连接中实时复用流的数量。
rpc调用
对远程节点发出的RPC调用的总数。
RPC失败
未恢复的RPC总失败次数。
rpc读取字节
读取的RPC字节总数。
rpc重试次数
至少重试过一次的RPC调用总数。
rpc写字节
写入的RPC字节总数。
单次使用
通过拨号打开的单次连接总数。
单次使用开放
当前打开的单一连接的数量。
总连接数
已建立的TCP连接总数。
总流量
建立的流的总数。
运行时
runtime 测量统计包括一部分 MemStats 记录关于 Go 内存分配器的统计信息。runtime 统计信息对于确定糟糕的内存分配策略和相关的性能问题是很有用的。
该Go runtime package包含与Go运行时系统交互的操作,包括用于控制goroutine的函数。它还包括Go reflect package使用的低级类型信息。
分配
当前分配的堆对象的字节数。
自由
已释放(存活)堆对象的累计数量。
堆分配
所有堆对象的大小(以字节为单位)。
堆闲置
空闲堆对象的字节数。
使用中的堆
正在使用的跨度中的字节数。
堆对象
分配的堆对象数量。
释放堆
返回给操作系统的物理内存的字节数。
堆系统
从操作系统获取的堆内存的字节数。
测量为堆保留的虚拟地址空间的大小。
查找
运行时执行的指针查找次数。
主要用于调试运行时内部。
内存分配
分配的堆对象总数。
活对象的总数是 Frees。
NumGC
已完成的GC(垃圾回收)周期数。
NumGoroutine
Go 协程的总数。
暂停总纳秒数
总的 GC(垃圾收集)暂停时间,以纳秒为单位。
系统
从操作系统获得的内存总字节数。
测量Go运行时为堆、栈和其他内部数据结构保留的虚拟地址空间。
总分配
为堆对象分配的总字节数。 这个统计数据在对象被释放时不会减少。
分片
与在 InfluxDB OSS 和 InfluxDB Enterprise 中处理分片相关的 shard 测量统计信息。
磁盘字节
分片的大小(以字节为单位),包括数据目录和WAL目录的大小。
创建字段
创建的字段数量。
索引类型
索引的类型 inmem 或 tsi1。
系列创建
然后创建的系列数量。
写字节
写入分片的字节数。
写入丢失的点
写入点 t 的请求数量从写入中减少。
此外,当一个点从写入中丢弃时,http.pointsWrittentDropped 增加
(见 #780)。
写入点错误
由于错误而未能写入的写入点请求数量。
写入点成功
成功写入的点数。
写请求
写请求的总数。
写请求错误
由于错误而失败的写请求总数。
写请求成功
成功写入请求的总数。
订阅者
订阅者的测量统计与InfluxDB订阅的使用相关。
创建失败
未能创建的订阅数量。
写入的点数
成功写入到订阅者的总点数。
写入失败
未能写入到订阅者的批次数量。
tsm1_cache
关于 tsm1_cache 的测量统计与 TSM 缓存的使用相关。以下查询示例计算与 TSM 缓存相关的各种有用测量。
SELECT
max(cacheAgeMs) / 1000.000 AS CacheAgeSeconds,
max(memBytes) AS MaxMemBytes, max(diskBytes) AS MaxDiskBytes,
max(snapshotCount) AS MaxSnapShotCount,
(last(cachedBytes) - first(cachedBytes)) / (last(WALCompactionTimeMs) - first(WALCompactionTimeMs)) - 1000.000 AS CompactedBytesPerSecond,
last(cachedBytes) AS CachedBytes,
(last(cachedBytes) - first(cachedBytes))/300 as CacheThroughputBytesPerSecond
FROM _internal.monitor.tsm1_cache
WHERE time > now() - 1h
GROUP BY time(5m), path
缓存年龄(毫秒)
自上次在采样时间快照缓存以来的持续时间(单位:毫秒)。 这个统计数据指示了缓存的忙碌程度。 大数字表示相对于写入操作,缓存处于空闲状态。
缓存字节
已经写入快照的总字节数。
这个统计数据在创建快照期间更新。
这个统计数据的目的是允许在任何两个时间实例之间计算缓存吞吐量。
这个统计数据两个样本之间的差异与分隔样本的时间间隔的比率是缓存吞吐量的一个度量(更准确地说,
数据被快照的速率)。 当与 diskBytes 和 memBytes 统计数据结合使用时,它也可以用于计算
数据进入缓存的速率和从缓存中清除的速率。
如果在持续一段时间内,输入速率超过输出速率,则需要解决一个问题。
磁盘字节
磁盘快照的大小,单位为字节。
内存字节数
内存缓存的大小,以字节为单位。
快照计数
当前活动快照的级别(数字)。 在健康的系统中,这个数字应该在0和1之间。经历短暂写入错误的系统可能会预期看到这个数字上升。
WAL压缩时间毫秒
在压缩快照时,提交锁保持的持续时间(以毫秒为单位)。
表达式 (cachedBytes - diskBytes) / WALCompactionTime 提供了一个指示
WAL 日志被提交到 TSM 文件的速度的指标。
在一个间隔内,起始和结束 “WALCompactionTime” 值的差值与该间隔长度的比率提供了一个指示
最大缓存吞吐量消耗了多少的指标。
写入已丢弃
由于超时而导致的写入总数减少。
写错误
写入失败的总次数。
写入成功
成功写入的总数。
tsm1_engine
关于使用带有压缩块的TSM存储引擎的tsm1_engine测量统计信息。
缓存压缩持续时间
在缓存压缩中花费的持续时间(实际时间),以纳秒为单位。
缓存压缩错误
由于错误而失败的缓存压缩数量。
缓存压缩
曾经运行的缓存压缩总数。
缓存压缩活动
当前正在运行的缓存压缩数量。
tsmFullCompactionDuration
在完整压缩中花费的持续时间(墙时间),以纳秒为单位。
tsmFullCompactionErr
由于错误而失败的TSM完整压缩的总数量。
tsm完全压缩队列
当前待处理的TMS完全压缩的数量。
tsmFullCompactions
历史上运行过的TSM全面压缩的总次数。
tsmFullCompactionsActive
当前正在运行的TSM完整压缩的数量。
tsmLevel1CompactionDuration
在TSM级别1压缩中消耗的持续时间(墙钟时间),以纳秒为单位。
tsmLevel1压缩错误
由于错误而失败的TSM一级压缩的总数。
tsmLevel1CompactionQueue
当前待处理的TSM级别1压缩数量。
tsmLevel1合并
历史上运行过的TSM级别1压缩的总数。
tsmLevel1CompactionsActive
当前正在运行的TSM级别1压缩的数量。
tsmLevel2CompactionDuration
在TSM等级2压缩中花费的时间(实际时间),以纳秒为单位。
tsmLevel2CompactionErr
由于错误而失败的TSM级别2压缩的数量。
tsmLevel2CompactionQueue
当前待处理的TSM级别2压缩的数量。
tsmLevel2Compactions
曾经运行的TSM等级2压缩的总数。
tsmLevel2CompactionsActive
当前正在运行的TSM级别2压缩的数量。
tsmLevel3CompactionDuration
在TSM级别3压缩中,花费的持续时间(墙时间),以纳秒为单位。
tsmLevel3CompactionErr
由于错误而失败的 TSM 级别 3 合并的数量。
tsmLevel3CompactionQueue
当前待处理的TSM级别3压缩的数量。
tsmLevel3Compactions
曾经运行的TSM级别3压缩的总数。
tsmLevel3CompactionsActive
当前正在运行的TSM级别3压缩的数量。
tsm优化压缩持续时间
在进行TSM优化压缩期间所花费的持续时间(实际时间),以纳秒为单位。
tsm优化压缩错误
由于错误导致的TSM优化合并失败的总次数。
tsm优化压缩队列
当前待处理的TSM优化压缩数量。
tsm优化压缩
自始至今运行的TSM优化压缩的总数量。
tsm优化压缩激活
当前正在运行的TSM优化压缩的数量。
tsm1_filestore
tsm1_filestore测量统计与TSM文件存储的使用有关。
磁盘字节
TSM 文件存储的磁盘使用情况的大小(以字节为单位)。
文件数量
TSM 文件存储中文件的总数量。
tsm1_wal
tsm1_wal 测量统计与 TSM 写前日志 (WAL) 的使用相关。
当前段磁盘字节数
当前段磁盘的大小,以字节为单位。
旧分段磁盘字节
段磁盘的大小,以字节为单位。
写错误
由于错误而失败的写入次数。
写入成功
成功的写入数。
写
写入的测量统计信息是关于数据节点的写入,无论写入的来源是什么。
点请求
请求写入到这个数据节点的每个点的总数。
传入的写入必须经过几个检查才能到达这一点(点解析正确,提供了正确的身份验证等)。
经过这些检查后,无论来源如何(HTTP、UDP、_internal 统计、OpenTSDB 插件等),这个统计数据都应该增加。
pointReqHH(仅限企业)
此节点获得的写入点总数,然后排入提示转交以供目标节点使用。
pointReqLocal(仅限企业)
在同一(本地)节点上尝试写入分片的点请求总数。
pointReqRemote(仅限企业)
这个节点收到的写入总点数,但需要转发到远程节点的分片。
pointReqRemote 统计信息在远程写入尝试之前立即增加,
这只有在该节点的 HH 不存在时才会发生。
然后,如果写入尝试失败,我们再次检查 HH 是否存在,如果存在,则将点添加到 HH 中。
该统计信息不区分直接写入目标节点的请求与排队进入目标节点的提示移交队列的请求。
写入点成功
写入HTTP /write 端点并成功持久化的点数。
请求
请求写入到该节点的点的批次数量。
子写入下拉
未能发送到订阅调度器的点的总批次数。
写入成功
成功发送到订阅调度程序的点批次数。
值写入成功
写入HTTP /write 端点并成功持久化的值(字段)数量。
写入下拉
由于时间戳与任何现有保留策略不匹配而被丢弃的点的写请求总数。
写入错误
由于无法写入本地或远程分片,未成功写入的点的批次数总和。
写入成功
在请求的一致性级别下写入的点的批次数总和。
部分写入(仅企业版)
写入至少一个节点的批次总数,但未达到请求的一致性级别。
写入超时
在默认写入超时持续时间内,未能完成的写请求总数。这可能表明磁盘I/O严重减少或争用,或者到远程节点的网络拥塞。对于通过HTTP或其他输入方法传入的单个写请求,如果在超时期间内整个批次未被写入,writeTimeout 将增加1,无论批次内的点是否可以在本地或远程写入。