Documentation

抓取与发现

数据可以通过Kapacitor的发现和抓取功能从动态列表中的远程目标获取。使用这些功能与TICKscripts监控目标、处理数据,并将数据写入InfluxDB。目前,Kapacitor仅支持Prometheus风格的目标。

注意: 抓取和发现目前处于技术预览阶段。 在后续版本中,配置和行为可能会发生变化。

内容

概述

下面的图表概述了使用Kapacitor发现和抓取数据的基础设施。

图像 1 – 抓取和发现工作流程

configuration-open
  1. 首先,Kapacitor 实现了发现过程,以识别您基础设施中可用的目标。它定期请求该信息,并从一个 authority 接收该信息。在图中,权威通知 Kapacitor 三个目标: ABC
  2. 接下来,Kapacitor 实现抓取过程,从现有目标拉取指标数据。 它以规则的时间间隔运行抓取过程。 这里,Kapacitor 向目标 ABC 请求指标。 运行在 ABC 上的应用程序在其 HTTP API 上公开了一个 /metrics 端点,该端点返回特定于应用的统计数据。
  3. 最后,Kapacitor 根据配置的 TICKscripts 处理数据。使用 TICKscripts 过滤、转换和对度量数据执行其他任务。此外,如果数据需要存储,请配置 TICKscript 将其发送到 InfluxDB

推送与拉取指标

通过将发现与抓取相结合,Kapacitor 能够建立一个指标收集基础设施,从目标中提取指标,而不是要求它们将指标推送到 InfluxDB。
在目标可能具有短生命周期的动态环境中,提取指标有几个优势。

配置爬虫和发现器

单个抓取器从单个发现者那里抓取目标。配置抓取器和发现者的过程实际上是单独配置每个抓取器和发现者,然后通知抓取器有关发现者的信息。

以下是爬虫的所有配置选项。

示例 1 – 爬虫配置

[[scraper]]
  enabled = false
  name = "myscraper"
  # ID of the discoverer to use
  discoverer-id = ""
  # The kind of discoverer to use
  discoverer-service = ""
  db = "mydb"
  rp = "myrp"
  type = "prometheus"
  scheme = "http"
  metrics-path = "/metrics"
  scrape-interval = "1m0s"
  scrape-timeout = "10s"
  username = ""
  password = ""
  bearer-token = ""
  ssl-ca = ""
  ssl-cert = ""
  ssl-key = ""
  ssl-server-name = ""
  insecure-skip-verify = false

可用的发现者

Kapacitor 支持以下用于发现的服务:

名称描述
azure发现托管在 Azure 的目标。
consul使用 Consul 服务发现来发现目标。
dns通过DNS查询发现目标。
ec2发现托管在 AWS EC2 的目标。
file-discovery发现文件中列出的目标。
gce发现托管在 GCE 的目标。
kubernetes发现托管在 Kubernetes 中的目标。
马拉松使用 Marathon 服务发现来发现目标。
神经使用 Nerve 服务发现来发现目标。
服务器集使用 Serversets 服务发现来发现目标。
static-discovery静态列出目标。
triton使用 Triton 服务发现来发现目标。

有关配置每个发现者的详细信息,请参阅示例 配置文件



Flux的未来

Flux 正在进入维护模式。您可以像现在一样继续使用它,而无需对您的代码进行任何更改。

阅读更多

InfluxDB 3 开源版本现已公开Alpha测试

InfluxDB 3 Open Source is now available for alpha testing, licensed under MIT or Apache 2 licensing.

我们将发布两个产品作为测试版的一部分。

InfluxDB 3 核心,是我们新的开源产品。 它是一个用于时间序列和事件数据的实时数据引擎。 InfluxDB 3 企业版是建立在核心基础之上的商业版本,增加了历史查询能力、读取副本、高可用性、可扩展性和细粒度安全性。

有关如何开始的更多信息,请查看: