ClusterLogForwarder 是用于配置日志转发功能的 API。
您可以通过指定一系列 `pipelines` 来配置转发,这些 `pipelines` 将日志从一组命名的输入转发到一组命名的输出。
对于常见的日志类别,存在内置的输入名称,您可以定义自定义输入以进行其他过滤。
对于默认的 OpenShift 日志存储,存在一个内置的输出名称,但是您可以使用 URL 和其他连接信息定义您自己的输出,以将日志转发到集群内或集群外的其他存储或处理器。
有关更多详细信息,请参阅 API 字段的文档。
属性 | 类型 | 描述 |
---|---|---|
spec |
对象 |
ClusterLogForwarder 期望行为的规范 |
status |
对象 |
ClusterLogForwarder 的状态 |
Output 定义日志消息的目标。
数组
属性 | 类型 | 描述 |
---|---|---|
syslog |
对象 |
(可选) |
fluentdForward |
对象 |
(可选) |
elasticsearch |
对象 |
(可选) |
kafka |
对象 |
(可选) |
cloudwatch |
对象 |
(可选) |
loki |
对象 |
(可选) |
googleCloudLogging |
对象 |
(可选) |
splunk |
对象 |
(可选) |
name |
字符串 |
用于引用 `pipeline` 输出的名称。 |
secret |
对象 |
**(可选)** 用于身份验证的密钥。 |
tls |
对象 |
TLS 包含用于控制 TLS 客户端连接选项的设置。 |
type |
字符串 |
输出插件的类型。 |
url |
字符串 |
**(可选)** 用于发送日志记录的 URL。 |
PipelinesSpec 将一组输入链接到一组输出。
数组
属性 | 类型 | 描述 |
---|---|---|
detectMultilineErrors |
布尔值 |
**(可选)** DetectMultilineErrors 启用容器日志的多行错误检测 |
inputRefs |
数组 |
InputRefs 列出了此 pipeline 输入的名称 (`input.name`)。 |
labels |
对象 |
**(可选)** 应用于通过此 pipeline 的日志记录的标签。 |
name |
字符串 |
**(可选)** 名称是可选的,但如果提供,则必须在此 `pipelines` 列表中唯一。 |
outputRefs |
数组 |
OutputRefs 列出了此 pipeline 输出的名称 (`output.name`)。 |
parse |
字符串 |
**(可选)** Parse 启用将日志条目解析为结构化日志 |
FluentdBufferSpec 代表 fluentd buffer 参数的子集,用于调整所有 fluentd 输出的 buffer 配置。它支持配置 buffer 和队列大小、刷新操作和重试刷新的参数子集。
对象
属性 | 类型 | 描述 |
---|---|---|
chunkLimitSize |
字符串 |
(可选) ChunkLimitSize 代表每个块的最大大小。事件将 |
flushInterval |
字符串 |
(可选) FlushInterval 代表两次连续刷新之间等待的时间间隔 |
flushMode |
字符串 |
(可选) FlushMode 代表写入块的刷新线程模式。模式 |
flushThreadCount |
int |
(可选) FlushThreadCount 代表 fluentd buffer 使用的线程数 |
overflowAction |
字符串 |
(可选) OverflowAction 代表 fluentd buffer 插件的操作 |
retryMaxInterval |
字符串 |
(可选) RetryMaxInterval 代表指数退避的最大时间间隔 |
retryTimeout |
字符串 |
(可选) RetryTimeout 代表在放弃之前尝试重试的最大时间间隔 |
retryType |
字符串 |
(可选) RetryType 代表重试刷新操作的类型。刷新操作可以 |
retryWait |
字符串 |
(可选) RetryWait 代表两次连续重试刷新之间的时间间隔 |
totalLimitSize |
字符串 |
(可选) TotalLimitSize 代表每个 fluentd 允许的节点空间阈值 |
FluentdBufferSpec 代表 fluentd buffer 参数的子集,用于调整所有 fluentd 输出的 buffer 配置。它支持配置 buffer 和队列大小、刷新操作和重试刷新的参数子集。
对象
属性 | 类型 | 描述 |
---|---|---|
chunkLimitSize |
字符串 |
(可选) ChunkLimitSize 代表每个块的最大大小。事件将 |
flushInterval |
字符串 |
(可选) FlushInterval 代表两次连续刷新之间等待的时间间隔 |
flushMode |
字符串 |
(可选) FlushMode 代表写入块的刷新线程模式。模式 |
flushThreadCount |
int |
(可选) FlushThreadCount 代表 fluentd buffer 使用的线程数 |
overflowAction |
字符串 |
(可选) OverflowAction 代表 fluentd buffer 插件的操作 |
retryMaxInterval |
字符串 |
(可选) RetryMaxInterval 代表指数退避的最大时间间隔 |
retryTimeout |
字符串 |
(可选) RetryTimeout 代表在放弃之前尝试重试的最大时间间隔 |
retryType |
字符串 |
(可选) RetryType 代表重试刷新操作的类型。刷新操作可以 |
retryWait |
字符串 |
(可选) RetryWait 代表两次连续重试刷新之间的时间间隔 |
totalLimitSize |
字符串 |
(可选) TotalLimitSize 代表每个 fluentd 允许的节点空间阈值 |
对象
属性 | 类型 | 描述 |
---|---|---|
activePrimaryShards |
int |
Elasticsearch 集群活动主分片数 |
activeShards |
int |
Elasticsearch 集群活动分片数 |
initializingShards |
int |
Elasticsearch 集群正在初始化的分片数 |
numDataNodes |
int |
Elasticsearch 集群的数据节点数 |
numNodes |
int |
Elasticsearch 集群的节点数 |
pendingTasks |
int |
|
relocatingShards |
int |
Elasticsearch 集群正在重新分配的分片数 |
status |
字符串 |
Elasticsearch 集群的当前状态 |
unassignedShards |
int |
Elasticsearch 集群未分配的分片数 |