日志记录作为可安装组件提供,具有与 AWS 上的核心 Red Hat OpenShift 服务不同的发布周期。 Red Hat OpenShift Container Platform 生命周期策略概述了发行版兼容性。 |
稳定渠道仅提供对最新日志记录版本的更新。要继续接收先前版本的更新,您必须将订阅渠道更改为stable-x.y,其中 |
在此更新之前,由于ClusterLogForwarder
CR 中的配置不正确,对日志记录运算符的更改导致错误。结果,日志记录的升级删除了守护进程收集器。通过此更新,日志记录运算符会重新创建收集器守护进程,除非发生未授权收集
错误。(LOG-4910)
在此更新之前,由于 Vector 日志收集器中的配置不正确,旋转的基础架构日志文件在某些情况下被发送到应用程序索引。通过此更新,Vector 日志收集器配置避免收集任何旋转的基础架构日志文件。(LOG-5156)
在此更新之前,日志记录运算符没有监控对grafana-dashboard-cluster-logging
配置映射的更改。通过此更新,日志记录运算符监控ConfigMap
对象的更改,确保系统保持同步并有效响应配置映射修改。(LOG-5308)
在此更新之前,日志记录运算符的指标收集代码中的一个问题导致它报告过时的遥测指标。通过此更新,日志记录运算符不会报告过时的遥测指标。(LOG-5426)
在此更改之前,Fluentd out_http
插件忽略了no_proxy
环境变量。通过此更新,Fluentd 修补了 ruby 的HTTP#start
方法以遵守no_proxy
环境变量。(LOG-5466)
在此更新之前,LogQL 解析中的错误遗漏了查询中的一些行过滤器。通过此更新,解析现在包含所有行过滤器,同时保持原始查询不变。(LOG-5268)
在此更新之前,没有定义pruneFilterSpec
的修剪过滤器会导致段错误。通过此更新,如果修剪过滤器没有定义puneFilterSpec
,则会出现验证错误。(LOG-5322)
在此更新之前,没有定义dropTestsSpec
的删除过滤器会导致段错误。通过此更新,如果修剪过滤器没有定义puneFilterSpec
,则会出现验证错误。(LOG-5323)
在此更新之前,Loki Operator 不会验证存储密钥中使用的 Amazon 简单存储服务 (S3) 端点 URL 格式。此更新后,S3 端点 URL 将经过验证步骤,该步骤会反映在 LokiStack
的状态中。(LOG-5397)
在此更新之前,审计日志记录中格式错误的时间戳字段会导致 Red Hat OpenShift Logging Operator 日志中出现 WARN
消息。此更新后,重新映射转换可确保时间戳字段格式正确。(LOG-4672)
在此更新之前,验证 ClusterLogForwarder
资源名称和命名空间时抛出的错误消息与正确的错误不符。此更新后,系统会检查在同一命名空间中是否存在具有相同名称的 ClusterLogForwarder
资源。如果不存在,则会显示正确的错误。(LOG-5062)
在此更新之前,输出配置的验证功能需要 TLS URL,即使对于 Amazon CloudWatch 或 Google Cloud Logging 等设计上不需要 URL 的服务也是如此。此更新后,改进了无需 URL 的服务的验证逻辑,并提供了更具信息量的错误消息。(LOG-5307)
在此更新之前,定义基础设施输入类型不会将日志工作负载从收集中排除。此更新后,收集将排除日志服务,以避免反馈循环。(LOG-5309)
Logging 5.9 版本不包含 OpenShift Elasticsearch Operator 的更新版本。来自先前 Logging 版本的 OpenShift Elasticsearch Operator 实例仍受支持,直到 Logging 版本的 EOL 为止。作为使用 OpenShift Elasticsearch Operator 管理默认日志存储的替代方法,您可以使用 Loki Operator。有关 Logging 生命周期日期的更多信息,请参阅 与平台无关的 Operators。
在 Logging 5.9 中,Fluentd 和 Kibana 已弃用,并计划在 Logging 6.0 中移除,预计该版本将与未来的 Red Hat OpenShift Service on AWS 版本一起发布。Red Hat 将在此版本的生命周期内为这些组件提供关键及以上级别的 CVE 错误修复和支持,但这些组件将不再接收功能增强。Red Hat OpenShift Logging Operator 提供的基于 Vector 的收集器和 Loki Operator 提供的 LokiStack 是首选的日志收集和存储 Operators。我们鼓励所有用户采用 Vector 和 Loki 日志堆栈,因为这将是未来将得到增强的堆栈。
在 Logging 5.9 中,Splunk 输出类型的 Fields
选项从未实现,现在已弃用。它将在未来的版本中移除。
此增强功能增加了使用工作负载的元数据根据其内容删除
或修剪
日志的能力,从而优化日志收集过程。此外,它允许仅收集单个来源的基础设施日志(例如日志或容器日志)和审计日志(例如kube api
或ovn
日志)。(LOG-2155)
此增强功能引入了一种新型的远程日志接收器:syslog 接收器。您可以将其配置为通过网络公开端口,允许外部系统使用兼容工具(例如 rsyslog)发送 syslog 日志。(LOG-3527)
此更新后,ClusterLogForwarder
API 现在支持将日志转发到 Azure Monitor Logs,从而为用户提供了更好的监控能力。此功能有助于用户保持最佳的系统性能并简化 Azure Monitor 中的日志分析流程,从而加快问题解决速度并提高运营效率。(LOG-4605)
此增强功能通过部署具有两个副本的部署作为收集器来提高收集器资源利用率。当在 ClusterLogForwarder
自定义资源 (CR) 中定义的唯一输入源是接收器输入而不是在所有节点上使用守护程序集时,就会发生这种情况。此外,以这种方式部署的收集器不会挂载主机文件系统。要使用此增强功能,您需要使用logging.openshift.io/dev-preview-enable-collector-as-deployment
注释来注释ClusterLogForwarder
CR。(LOG-4779)
此增强功能引入了跨所有受支持输出的自定义租户配置功能,以便以逻辑方式组织日志记录。但是,它不允许对日志管理存储进行自定义租户配置。(LOG-4843)
此更新后,指定应用程序输入和一个或多个基础设施命名空间(如default
、openshift*
或kube*
)的ClusterLogForwarder
CR 现在需要具有collect-infrastructure-logs
角色的服务帐户。(LOG-4943)
此增强功能引入了调整某些输出设置(例如压缩、重试持续时间和最大有效负载)以匹配接收器特性的能力。此外,此功能还包括一种传递模式,允许管理员在吞吐量和日志持久性之间进行选择。例如,AtLeastOnce
选项配置收集日志的最小磁盘缓冲,以便收集器可以在重新启动后传递这些日志。(LOG-5026)
此增强功能添加了三个新的 Prometheus 警报,警告用户 Elasticsearch、Fluentd 和 Kibana 已弃用。(LOG-5055)
LokiStack 中的此增强功能通过使用新的 V13 对象存储格式并默认启用自动流分片来改进对 OTEL 的支持。这也为将来的增强功能和配置做好了准备。(LOG-4538)
此增强功能引入了对短生命周期令牌工作负载身份联合的支持,并支持针对启用 STS 的 Red Hat OpenShift Service on AWS 4.14 及更高版本的集群的 Azure 和 AWS 日志存储。本地存储需要在 LokiStack CR 中的spec.storage.secret
下添加CredentialMode: static
注释。(LOG-4540)
此更新后,Azure 存储密钥的验证现已扩展,可以尽早预警某些错误情况。(LOG-4571)
此更新使Loki增加了对GCP工作负载身份联合机制的上游和下游支持。这允许对相应的对象存储服务进行身份验证和授权访问。(LOG-4754)
在此更新之前,日志必须收集功能无法在启用FIPS的集群上收集任何日志。通过此更新,cluster-logging-rhel9-operator
中提供了一个新的oc
客户端,并且必须收集功能在FIPS集群上正常工作。(LOG-4403)
在此更新之前,LokiStack ruler pod无法在用于pod间通信的HTTP URL中格式化IPv6 pod IP。此问题导致通过与Prometheus兼容的API查询规则和警报失败。通过此更新,LokiStack ruler pod将IPv6 pod IP封装在方括号中,从而解决了此问题。现在,通过与Prometheus兼容的API查询规则和警报就像在IPv4环境中一样工作。(LOG-4709)
在此修复之前,日志必须收集功能生成的YAML内容以单行导出,使其难以阅读。通过此更新,YAML空格将被保留,确保文件格式正确。(LOG-4792)
在此更新之前,启用ClusterLogForwarder
CR时,如果ClusterLogging.Spec.Collection
为null,Red Hat OpenShift Logging Operator可能会遇到空指针异常。此更新解决了Red Hat OpenShift Logging Operator中的此问题。(LOG-5006)
在此更新之前,在某些特定情况下,替换ClusterLogForwarder
CR状态字段会导致resourceVersion
由于Status
条件中时间戳的更改而不断更新。此情况会导致无限协调循环。通过此更新,所有状态条件都同步,因此如果条件保持不变,则时间戳保持不变。(LOG-5007)
在此更新之前,drop_newest
存在内部缓冲行为,以解决收集器导致的高内存消耗问题,从而导致大量日志丢失。此更新将行为恢复为使用收集器的默认值。(LOG-5123)
在此更新之前,openshift-operators-redhat
命名空间中的Loki Operator ServiceMonitor
使用静态令牌和CA文件进行身份验证,这会导致Prometheus Operator在用户工作负载监控规范中对ServiceMonitor
配置出错。此更新后,openshift-operators-redhat
命名空间中的Loki Operator ServiceMonitor
现在通过LocalReference
对象引用服务帐户令牌密钥。这种方法允许Prometheus Operator中的用户工作负载监控规范成功处理Loki Operator ServiceMonitor
,从而使Prometheus能够抓取Loki Operator指标。(LOG-5165)
在此更新之前,Loki Operator ServiceMonitor
的配置可能与许多Kubernetes服务匹配,导致Loki Operator指标被多次收集。通过此更新,ServiceMonitor
的配置现在仅匹配专用的指标服务。(LOG-5212)