×

前提条件

网络配置阶段

在 OpenShift Container Platform 安装之前,有两个阶段可以自定义网络配置。

阶段 1

在创建清单文件之前,您可以在install-config.yaml文件中自定义以下与网络相关的字段:

  • networking.networkType

  • networking.clusterNetwork

  • networking.serviceNetwork

  • networking.machineNetwork

    有关更多信息,请参阅“安装配置参数”。

    networking.machineNetwork设置为与首选子网所在的无类域间路由 (CIDR) 匹配。

    CIDR 范围172.17.0.0/16libVirt保留。您不能对集群中的网络使用任何其他与172.17.0.0/16 CIDR 范围重叠的 CIDR 范围。

阶段 2

通过运行openshift-install create manifests创建清单文件后,您可以仅使用要修改的字段定义自定义的集群网络操作符清单。您可以使用该清单来指定高级网络配置。

在阶段 2 中,您不能覆盖在阶段 1 中install-config.yaml文件中指定的 value。但是,您可以在阶段 2 中自定义网络插件。

创建安装配置文件

您可以自定义在 Amazon Web Services (AWS) 上安装的 OpenShift Container Platform 集群。

先决条件
  • 您拥有 OpenShift Container Platform 安装程序和集群的拉取密钥。

步骤
  1. 创建install-config.yaml文件。

    1. 更改到包含安装程序的目录,并运行以下命令:

      $ ./openshift-install create install-config --dir <installation_directory> (1)
      1 对于<installation_directory>,请指定存储安装程序创建文件的目录名称。

      指定目录时:

      • 验证该目录是否具有execute权限。此权限是安装目录下运行 Terraform 二进制文件所必需的。

      • 使用空目录。某些安装资源(例如引导 X.509 证书)的过期时间间隔很短,因此您不能重复使用安装目录。如果您想从另一个集群安装中重复使用单个文件,您可以将它们复制到您的目录中。但是,安装资源的文件名可能会在不同版本之间发生变化。从早期 OpenShift Container Platform 版本复制安装文件时,请谨慎操作。

    2. 在提示符下,提供云的配置详细信息。

      1. 可选:选择一个 SSH 密钥来访问您的集群机器。

        对于要执行安装调试或灾难恢复的生产 OpenShift Container Platform 集群,请指定您的ssh-agent进程使用的 SSH 密钥。

      2. 选择**AWS**作为目标平台。

      3. 如果您在计算机上没有存储 Amazon Web Services (AWS) 配置文件,请输入您配置的用于运行安装程序的用户 的 AWS 访问密钥 ID 和秘密访问密钥。

      4. 选择要部署集群的 AWS 区域。

      5. 为已为集群配置的 Route 53 服务选择基本域名。

      6. 输入集群的描述性名称。

  2. 修改install-config.yaml文件。您可以在“安装配置参数”部分找到有关可用参数的更多信息。

  3. 备份install-config.yaml文件,以便您可以使用它来安装多个集群。

    install-config.yaml文件在安装过程中被使用。如果您想重复使用该文件,则现在必须对其进行备份。

集群安装的最低资源要求

每台集群机器必须满足以下最低要求:

表 1. 最低资源要求
机器 操作系统 vCPU [1] 虚拟 RAM 存储 每秒输入/输出 (IOPS)[2]

引导程序

RHCOS

4

16 GB

100 GB

300

控制平面

RHCOS

4

16 GB

100 GB

300

计算

RHCOS,RHEL 8.6 及更高版本 [3]

2

8 GB

100 GB

300

  1. 当未启用同时多线程 (SMT) 或超线程时,一个 vCPU 等于一个物理核心。启用时,请使用以下公式计算相应的比率:(每个核心的线程 × 核心)× 插槽 = vCPU。

  2. OpenShift Container Platform 和 Kubernetes 对磁盘性能很敏感,建议使用更快的存储,特别是对于控制平面节点上的 etcd,它需要 10 毫秒 p99 fsync 时长。请注意,在许多云平台上,存储大小和 IOPS 是成比例的,因此您可能需要过度分配存储卷以获得足够的性能。

  3. 与所有用户配置的安装一样,如果您选择在集群中使用 RHEL 计算机器,则您将负责所有操作系统生命周期管理和维护,包括执行系统更新、应用补丁以及完成所有其他必需的任务。RHEL 7 计算机器的使用已弃用,并在 OpenShift Container Platform 4.10 及更高版本中已被移除。

从 OpenShift Container Platform 4.13 版本开始,RHCOS 基于 RHEL 9.2 版本,这更新了微架构要求。以下列表包含每种架构所需的最低指令集架构 (ISA):

  • x86-64 架构需要 x86-64-v2 ISA

  • ARM64 架构需要 ARMv8.0-A ISA

  • IBM Power 架构需要 Power 9 ISA

  • s390x 架构需要 z14 ISA

更多信息,请参见 RHEL 架构

如果您的平台的实例类型满足集群机器的最低要求,则支持在 OpenShift Container Platform 中使用。

其他资源

AWS 已测试的实例类型

以下 Amazon Web Services (AWS) 实例类型已通过 OpenShift Container Platform 测试。

请为您的 AWS 实例使用以下图表中包含的机器类型。如果您使用图表中未列出的实例类型,请确保您使用的实例大小与“集群安装的最低资源要求”部分中列出的最低资源要求相匹配。

基于 64 位 x86 架构的机器类型
  • c4.*

  • c5.*

  • c5a.*

  • i3.*

  • m4.*

  • m5.*

  • m5a.*

  • m6a.*

  • m6i.*

  • r4.*

  • r5.*

  • r5a.*

  • r6i.*

  • t3.*

  • t3a.*

AWS 64 位 ARM 架构上已测试的实例类型

以下 Amazon Web Services (AWS) 64 位 ARM 实例类型已通过 OpenShift Container Platform 测试。

请为您的 AWS ARM 实例使用以下图表中包含的机器类型。如果您使用图表中未列出的实例类型,请确保您使用的实例大小与“集群安装的最低资源要求”部分中列出的最低资源要求相匹配。

基于 64 位 ARM 架构的机器类型
  • c6g.*

  • c7g.*

  • m6g.*

  • m7g.*

  • r8g.*

AWS 的自定义 install-config.yaml 文件示例

您可以自定义安装配置文件 (install-config.yaml) 以指定有关 OpenShift Container Platform 集群平台的更多详细信息或修改所需参数的值。

此 YAML 文件示例仅供参考。您必须使用安装程序获取您的 install-config.yaml 文件并对其进行修改。

apiVersion: v1
baseDomain: example.com (1)
credentialsMode: Mint (2)
controlPlane:  (3) (4)
  hyperthreading: Enabled (5)
  name: master
  platform:
    aws:
      zones:
      - us-west-2a
      - us-west-2b
      rootVolume:
        iops: 4000
        size: 500
        type: io1 (6)
      metadataService:
        authentication: Optional (7)
      type: m6i.xlarge
  replicas: 3
compute: (3)
- hyperthreading: Enabled (5)
  name: worker
  platform:
    aws:
      rootVolume:
        iops: 2000
        size: 500
        type: io1 (6)
      metadataService:
        authentication: Optional (7)
      type: c5.4xlarge
      zones:
      - us-west-2c
  replicas: 3
metadata:
  name: test-cluster (1)
networking: (3)
  clusterNetwork:
  - cidr: 10.128.0.0/14
    hostPrefix: 23
  machineNetwork:
  - cidr: 10.0.0.0/16
  networkType: OVNKubernetes (8)
  serviceNetwork:
  - 172.30.0.0/16
platform:
  aws:
    region: us-west-2 (1)
    propagateUserTags: true (3)
    userTags:
      adminContact: jdoe
      costCenter: 7536
    amiID: ami-0c5d3e03c0ab9b19a (9)
    serviceEndpoints: (10)
      - name: ec2
        url: https://vpce-id.ec2.us-west-2.vpce.amazonaws.com
fips: false (11)
sshKey: ssh-ed25519 AAAA... (12)
pullSecret: '{"auths": ...}' (1)
1 必需。安装程序会提示您输入此值。
2 可选:添加此参数以强制 Cloud Credential Operator (CCO) 使用指定的模式。默认情况下,CCO 使用 kube-system 命名空间中的 root 凭据来动态尝试确定凭据的功能。有关 CCO 模式的详细信息,请参阅《身份验证和授权》指南中的“关于 Cloud Credential Operator”部分。
3 如果您不提供这些参数和值,安装程序将提供默认值。
4 controlPlane 部分是一个单映射,但 compute 部分是一系列映射。为了满足不同数据结构的要求,compute 部分的第一行必须以连字符 - 开头,而 controlPlane 部分的第一行则不能。仅使用一个控制平面池。
5 是否启用或禁用同时多线程处理或超线程。默认情况下,启用同时多线程处理以提高机器内核的性能。您可以将其设置为 Disabled 来禁用它。如果您在某些集群机器中禁用了同时多线程处理,则必须在所有集群机器中禁用它。

如果您禁用同时多线程处理,请确保您的容量规划考虑了机器性能的大幅下降。如果您禁用同时多线程处理,请为您的机器使用更大的实例类型,例如 m4.2xlargem5.2xlarge

6 要为 etcd 配置更快的存储,特别是对于更大的集群,请将存储类型设置为 io1 并将 iops 设置为 2000
7 是否需要 Amazon EC2 实例元数据服务 v2 (IMDSv2)。要需要 IMDSv2,请将参数值设置为 Required。要允许同时使用 IMDSv1 和 IMDSv2,请将参数值设置为 Optional。如果未指定值,则允许使用 IMDSv1 和 IMDSv2。

集群安装期间设置的控制平面机器的 IMDS 配置只能使用 AWS CLI 进行更改。计算机器的 IMDS 配置可以使用计算机器集进行更改。

8 要安装的集群网络插件。默认值 OVNKubernetes 是唯一支持的值。
9 用于引导集群机器的 AMI ID。如果设置,AMI 必须属于与集群相同的区域。
10 AWS 服务端点。安装到未知 AWS 区域时需要自定义端点。端点 URL 必须使用 https 协议,并且主机必须信任证书。
11 是否启用或禁用 FIPS 模式。默认情况下,未启用 FIPS 模式。如果启用 FIPS 模式,则运行 OpenShift Container Platform 的 Red Hat Enterprise Linux CoreOS (RHCOS) 机器将绕过默认的 Kubernetes 密码套件,并改用随 RHCOS 提供的密码模块。

要为您的集群启用 FIPS 模式,您必须从配置为在 FIPS 模式下运行的 Red Hat Enterprise Linux (RHEL) 计算机运行安装程序。有关在 RHEL 上配置 FIPS 模式的更多信息,请参见 将 RHEL 切换到 FIPS 模式

在运行在 FIPS 模式下引导的 Red Hat Enterprise Linux (RHEL) 或 Red Hat Enterprise Linux CoreOS (RHCOS) 时,OpenShift Container Platform 核心组件仅在 x86_64、ppc64le 和 s390x 架构上使用已提交给 NIST 用于 FIPS 140-2/140-3 验证的 RHEL 密码库。

12 您可以选择提供用于访问集群中机器的 sshKey 值。

对于要执行安装调试或灾难恢复的生产 OpenShift Container Platform 集群,请指定您的ssh-agent进程使用的 SSH 密钥。

在安装过程中配置集群范围的代理

生产环境可能会拒绝直接访问互联网,而是提供 HTTP 或 HTTPS 代理。您可以通过在 install-config.yaml 文件中配置代理设置来配置新的 OpenShift Container Platform 集群以使用代理。

先决条件
  • 您拥有现有的 install-config.yaml 文件。

  • 您已查看集群需要访问的站点,并确定其中任何站点是否需要绕过代理。默认情况下,所有集群出站流量都将被代理,包括对托管云提供商 API 的调用。如有必要,您已将站点添加到 Proxy 对象的 spec.noProxy 字段以绕过代理。

    Proxy 对象 status.noProxy 字段将填充您的安装配置中的 networking.machineNetwork[].cidrnetworking.clusterNetwork[].cidrnetworking.serviceNetwork[] 字段的值。

    对于在 Amazon Web Services (AWS)、Google Cloud Platform (GCP)、Microsoft Azure 和 Red Hat OpenStack Platform (RHOSP) 上的安装,Proxy 对象 status.noProxy 字段还将填充实例元数据端点 (169.254.169.254)。

步骤
  1. 编辑您的 install-config.yaml 文件并添加代理设置。例如

    apiVersion: v1
    baseDomain: my.domain.com
    proxy:
      httpProxy: http://<username>:<pswd>@<ip>:<port> (1)
      httpsProxy: https://<username>:<pswd>@<ip>:<port> (2)
      noProxy: ec2.<aws_region>.amazonaws.com,elasticloadbalancing.<aws_region>.amazonaws.com,s3.<aws_region>.amazonaws.com (3)
    additionalTrustBundle: | (4)
        -----BEGIN CERTIFICATE-----
        <MY_TRUSTED_CA_CERT>
        -----END CERTIFICATE-----
    additionalTrustBundlePolicy: <policy_to_add_additionalTrustBundle> (5)
    1 用于创建集群外部 HTTP 连接的代理 URL。URL 方案必须为 http
    2 用于在集群外部创建 HTTPS 连接的代理 URL。
    3 要从代理中排除的目标域名、IP 地址或其他网络 CIDR 的逗号分隔列表。用.作为域名前缀仅匹配子域名。例如,.y.com 匹配 x.y.com,但不匹配 y.com。使用*绕过所有目标的代理。如果您已将 Amazon 的EC2Elastic Load BalancingS3 VPC 端点添加到您的 VPC,则必须将这些端点添加到noProxy字段。
    4 如果提供,安装程序将生成一个名为user-ca-bundle的配置映射,该映射位于openshift-config命名空间中,其中包含一个或多个用于代理 HTTPS 连接的附加 CA 证书。集群网络操作员然后创建一个trusted-ca-bundle配置映射,将这些内容与 Red Hat Enterprise Linux CoreOS (RHCOS) 信任捆绑包合并,并在Proxy对象的trustedCA字段中引用此配置映射。除非代理的身份证书由 RHCOS 信任捆绑包中的权威机构签名,否则需要additionalTrustBundle字段。
    5 可选:确定Proxy对象的配置以在trustedCA字段中引用user-ca-bundle配置映射的策略。允许的值为ProxyonlyAlways。使用Proxyonly仅在配置了http/https代理时才引用user-ca-bundle配置映射。使用Always始终引用user-ca-bundle配置映射。默认值为Proxyonly

    安装程序不支持代理readinessEndpoints字段。

    如果安装程序超时,请重启,然后使用安装程序的wait-for命令完成部署。例如

    $ ./openshift-install wait-for install-complete --log-level debug
  2. 保存文件并在安装 OpenShift Container Platform 时引用它。

安装程序创建一个名为cluster的集群范围代理,该代理使用提供的install-config.yaml文件中的代理设置。如果没有提供代理设置,仍然会创建cluster Proxy对象,但它将具有 nil spec

仅支持名为clusterProxy对象,并且不能创建其他代理。

在 kube-system 项目中存储管理员级密钥的替代方法

默认情况下,管理员密钥存储在kube-system项目中。如果您在install-config.yaml文件中将credentialsMode参数配置为Manual,则必须使用以下替代方法之一

手动创建长期凭据

在无法访问云身份和访问管理 (IAM) API 或管理员更倾向于不在集群kube-system命名空间中存储管理员级凭据密钥的环境中,可以在安装之前将云凭据操作员 (CCO) 置于手动模式。

步骤
  1. 如果您未在install-config.yaml配置文件中将credentialsMode参数设置为Manual,请修改该值,如下所示

    示例配置文件片段
    apiVersion: v1
    baseDomain: example.com
    credentialsMode: Manual
    # ...
  2. 如果您以前没有创建安装清单文件,请运行以下命令来创建:

    $ openshift-install create manifests --dir <installation_directory>

    其中<installation_directory>是安装程序创建文件的目录。

  3. 通过运行以下命令,使用安装文件中的发行版镜像设置$RELEASE_IMAGE变量:

    $ RELEASE_IMAGE=$(./openshift-install version | awk '/release image/ {print $3}')
  4. 通过运行以下命令,从 OpenShift Container Platform 发行版镜像中提取CredentialsRequest自定义资源 (CR) 列表:

    $ oc adm release extract \
      --from=$RELEASE_IMAGE \
      --credentials-requests \
      --included \(1)
      --install-config=<path_to_directory_with_installation_configuration>/install-config.yaml \(2)
      --to=<path_to_directory_for_credentials_requests> (3)
    1 --included参数仅包含您的特定集群配置所需的清单。
    2 指定install-config.yaml文件的位置。
    3 指定要存储CredentialsRequest对象的目录的路径。如果指定的目录不存在,此命令将创建它。

    此命令将为每个CredentialsRequest对象创建一个 YAML 文件。

    示例CredentialsRequest对象
    apiVersion: cloudcredential.openshift.io/v1
    kind: CredentialsRequest
    metadata:
      name: <component_credentials_request>
      namespace: openshift-cloud-credential-operator
      ...
    spec:
      providerSpec:
        apiVersion: cloudcredential.openshift.io/v1
        kind: AWSProviderSpec
        statementEntries:
        - effect: Allow
          action:
          - iam:GetUser
          - iam:GetUserPolicy
          - iam:ListAccessKeys
          resource: "*"
      ...
  5. 为之前生成的openshift-install清单目录中的密钥创建 YAML 文件。必须使用每个CredentialsRequest对象中spec.secretRef定义的命名空间和密钥名称来存储密钥。

    包含密钥的示例CredentialsRequest对象
    apiVersion: cloudcredential.openshift.io/v1
    kind: CredentialsRequest
    metadata:
      name: <component_credentials_request>
      namespace: openshift-cloud-credential-operator
      ...
    spec:
      providerSpec:
        apiVersion: cloudcredential.openshift.io/v1
        kind: AWSProviderSpec
        statementEntries:
        - effect: Allow
          action:
          - s3:CreateBucket
          - s3:DeleteBucket
          resource: "*"
          ...
      secretRef:
        name: <component_secret>
        namespace: <component_namespace>
      ...
    示例Secret对象
    apiVersion: v1
    kind: Secret
    metadata:
      name: <component_secret>
      namespace: <component_namespace>
    data:
      aws_access_key_id: <base64_encoded_aws_access_key_id>
      aws_secret_access_key: <base64_encoded_aws_secret_access_key>

在升级使用手动维护的凭据的集群之前,必须确保 CCO 处于可升级状态。

配置 AWS 集群以使用短期凭据

要安装配置为使用 AWS 安全令牌服务 (STS) 的集群,必须配置 CCO 实用程序并为您的集群创建所需的 AWS 资源。

配置云凭据操作员实用程序

当云凭据操作员 (CCO) 以手动模式运行时,要从集群外部创建和管理云凭据,请提取并准备 CCO 实用程序 (ccoctl) 二进制文件。

ccoctl实用程序是一个 Linux 二进制文件,必须在 Linux 环境中运行。

先决条件
  • 您可以访问具有集群管理员访问权限的 OpenShift Container Platform 帐户。

  • 您已安装 OpenShift CLI (oc)。

  • 您已为ccoctl实用程序创建了一个 AWS 帐户,并具有以下权限:

    所需的 AWS 权限

    所需的iam权限

    • iam:CreateOpenIDConnectProvider

    • iam:CreateRole

    • iam:DeleteOpenIDConnectProvider

    • iam:DeleteRole

    • iam:DeleteRolePolicy

    • iam:GetOpenIDConnectProvider

    • iam:GetRole

    • iam:GetUser

    • iam:ListOpenIDConnectProviders

    • iam:ListRolePolicies

    • iam:ListRoles

    • iam:PutRolePolicy

    • iam:TagOpenIDConnectProvider

    • iam:TagRole

    所需的s3权限

    • s3:CreateBucket

    • s3:DeleteBucket

    • s3:DeleteObject

    • s3:GetBucketAcl

    • s3:GetBucketTagging

    • s3:GetObject

    • s3:GetObjectAcl

    • s3:GetObjectTagging

    • s3:ListBucket

    • s3:PutBucketAcl

    • s3:PutBucketPolicy

    • s3:PutBucketPublicAccessBlock

    • s3:PutBucketTagging

    • s3:PutObject

    • s3:PutObjectAcl

    • s3:PutObjectTagging

    所需的cloudfront权限

    • cloudfront:ListCloudFrontOriginAccessIdentities

    • cloudfront:ListDistributions

    • cloudfront:ListTagsForResource

    如果您计划将OIDC配置存储在私有S3存储桶中,并通过公共CloudFront分发URL由IAM身份提供商访问,则运行ccoctl实用程序的AWS账户需要以下额外权限

    使用CloudFront的私有S3存储桶的额外权限
    • cloudfront:CreateCloudFrontOriginAccessIdentity

    • cloudfront:CreateDistribution

    • cloudfront:DeleteCloudFrontOriginAccessIdentity

    • cloudfront:DeleteDistribution

    • cloudfront:GetCloudFrontOriginAccessIdentity

    • cloudfront:GetCloudFrontOriginAccessIdentityConfig

    • cloudfront:GetDistribution

    • cloudfront:TagResource

    • cloudfront:UpdateDistribution

    这些额外的权限支持在使用ccoctl aws create-all命令处理凭据请求时使用--create-private-s3-bucket选项。

步骤
  1. 通过运行以下命令设置OpenShift Container Platform发行版镜像的变量

    $ RELEASE_IMAGE=$(./openshift-install version | awk '/release image/ {print $3}')
  2. 通过运行以下命令从OpenShift Container Platform发行版镜像中获取CCO容器镜像

    $ CCO_IMAGE=$(oc adm release info --image-for='cloud-credential-operator' $RELEASE_IMAGE -a ~/.pull-secret)

    确保$RELEASE_IMAGE的架构与您将使用ccoctl工具的环境架构匹配。

  3. 通过运行以下命令从OpenShift Container Platform发行版镜像中的CCO容器镜像中提取ccoctl二进制文件

    $ oc image extract $CCO_IMAGE \
      --file="/usr/bin/ccoctl.<rhel_version>" \(1)
      -a ~/.pull-secret
    1 对于<rhel_version>,请指定与主机使用的Red Hat Enterprise Linux (RHEL)版本相对应的值。如果未指定值,则默认使用ccoctl.rhel8。有效值为:
    • rhel8:对于使用RHEL 8的主机,指定此值。

    • rhel9:对于使用RHEL 9的主机,指定此值。

  4. 通过运行以下命令更改权限以使ccoctl可执行

    $ chmod 775 ccoctl.<rhel_version>
验证
  • 要验证ccoctl是否已准备好使用,请显示帮助文件。运行命令时使用相对文件名,例如

    $ ./ccoctl.rhel9
    示例输出
    OpenShift credentials provisioning tool
    
    Usage:
      ccoctl [command]
    
    Available Commands:
      aws          Manage credentials objects for AWS cloud
      azure        Manage credentials objects for Azure
      gcp          Manage credentials objects for Google cloud
      help         Help about any command
      ibmcloud     Manage credentials objects for {ibm-cloud-title}
      nutanix      Manage credentials objects for Nutanix
    
    Flags:
      -h, --help   help for ccoctl
    
    Use "ccoctl [command] --help" for more information about a command.

使用Cloud Credential Operator实用程序创建AWS资源

创建AWS资源时,您可以选择以下选项:

  • 您可以使用ccoctl aws create-all命令自动创建AWS资源。这是创建资源最快的方法。请参阅使用单个命令创建AWS资源

  • 如果您需要在修改AWS资源之前查看ccoctl工具创建的JSON文件,或者ccoctl工具用于自动创建AWS资源的过程不符合您组织的要求,则可以单独创建AWS资源。请参阅单独创建AWS资源

使用单个命令创建AWS资源

如果ccoctl工具用于自动创建AWS资源的过程符合您组织的要求,则可以使用ccoctl aws create-all命令自动创建AWS资源。

否则,您可以单独创建AWS资源。有关更多信息,请参阅“单独创建AWS资源”。

默认情况下,ccoctl在运行命令的目录中创建对象。要在不同的目录中创建对象,请使用--output-dir标志。此过程使用<path_to_ccoctl_output_dir>来引用此目录。

先决条件

您必须:

  • 已提取并准备ccoctl二进制文件。

步骤
  1. 通过运行以下命令,使用安装文件中的发行版镜像设置$RELEASE_IMAGE变量:

    $ RELEASE_IMAGE=$(./openshift-install version | awk '/release image/ {print $3}')
  2. 通过运行以下命令从OpenShift Container Platform发行版镜像中提取CredentialsRequest对象的列表

    $ oc adm release extract \
      --from=$RELEASE_IMAGE \
      --credentials-requests \
      --included \(1)
      --install-config=<path_to_directory_with_installation_configuration>/install-config.yaml \(2)
      --to=<path_to_directory_for_credentials_requests> (3)
    1 --included参数仅包含您的特定集群配置所需的清单。
    2 指定install-config.yaml文件的位置。
    3 指定要存储CredentialsRequest对象的目录的路径。如果指定的目录不存在,此命令将创建它。

    此命令可能需要几分钟才能运行。

  3. 使用ccoctl工具处理所有CredentialsRequest对象,运行以下命令:

    $ ccoctl aws create-all \
      --name=<name> \(1)
      --region=<aws_region> \(2)
      --credentials-requests-dir=<path_to_credentials_requests_directory> \(3)
      --output-dir=<path_to_ccoctl_output_dir> \(4)
      --create-private-s3-bucket (5)
    1 指定用于标记为跟踪而创建的任何云资源的名称。
    2 指定将创建云资源的AWS区域。
    3 指定包含组件CredentialsRequest对象文件的目录。
    4 可选:指定您希望ccoctl实用程序创建对象的目录。默认情况下,该实用程序在运行命令的目录中创建对象。
    5 可选:默认情况下,ccoctl实用程序将OpenID Connect (OIDC)配置文件存储在公共S3存储桶中,并将S3 URL用作公共OIDC端点。要改为将OIDC配置存储在私有S3存储桶中,并通过公共CloudFront分发URL由IAM身份提供商访问,请使用--create-private-s3-bucket参数。

    如果您的集群使用由TechPreviewNoUpgrade功能集启用的技术预览功能,则必须包含--enable-tech-preview参数。

验证
  • 要验证OpenShift Container Platform密钥是否已创建,请列出<path_to_ccoctl_output_dir>/manifests目录中的文件

    $ ls <path_to_ccoctl_output_dir>/manifests
    示例输出
    cluster-authentication-02-config.yaml
    openshift-cloud-credential-operator-cloud-credential-operator-iam-ro-creds-credentials.yaml
    openshift-cloud-network-config-controller-cloud-credentials-credentials.yaml
    openshift-cluster-api-capa-manager-bootstrap-credentials-credentials.yaml
    openshift-cluster-csi-drivers-ebs-cloud-credentials-credentials.yaml
    openshift-image-registry-installer-cloud-credentials-credentials.yaml
    openshift-ingress-operator-cloud-credentials-credentials.yaml
    openshift-machine-api-aws-cloud-credentials-credentials.yaml

    您可以通过查询AWS来验证IAM角色是否已创建。有关更多信息,请参阅有关列出IAM角色的AWS文档。

单独创建AWS资源

您可以使用ccoctl工具单独创建AWS资源。此选项可能对在不同用户或部门之间共享创建这些资源责任的组织很有用。

否则,您可以使用ccoctl aws create-all命令自动创建AWS资源。有关更多信息,请参阅“使用单个命令创建AWS资源”。

默认情况下,ccoctl在运行命令的目录中创建对象。要在不同的目录中创建对象,请使用--output-dir标志。此过程使用<path_to_ccoctl_output_dir>来引用此目录。

某些ccoctl命令会进行AWS API调用以创建或修改AWS资源。您可以使用--dry-run标志避免进行API调用。使用此标志会在本地文件系统上创建JSON文件。您可以查看和修改JSON文件,然后使用AWS CLI工具和--cli-input-json参数应用它们。

先决条件
  • 提取并准备ccoctl二进制文件。

步骤
  1. 通过运行以下命令生成用于为集群设置OpenID Connect提供程序的公共和私有RSA密钥文件

    $ ccoctl aws create-key-pair
    示例输出
    2021/04/13 11:01:02 Generating RSA keypair
    2021/04/13 11:01:03 Writing private key to /<path_to_ccoctl_output_dir>/serviceaccount-signer.private
    2021/04/13 11:01:03 Writing public key to /<path_to_ccoctl_output_dir>/serviceaccount-signer.public
    2021/04/13 11:01:03 Copying signing key for use by installer

    其中serviceaccount-signer.privateserviceaccount-signer.public是生成的密钥文件。

    此命令还会在/<path_to_ccoctl_output_dir>/tls/bound-service-account-signing-key.key中创建一个集群在安装期间需要的私钥。

  2. 通过运行以下命令在AWS上创建一个OpenID Connect身份提供程序和S3存储桶

    $ ccoctl aws create-identity-provider \
      --name=<name> \(1)
      --region=<aws_region> \(2)
      --public-key-file=<path_to_ccoctl_output_dir>/serviceaccount-signer.public (3)
    1 <name>是用于标记为跟踪而创建的任何云资源的名称。
    2 <aws-region>是将创建云资源的AWS区域。
    3 <path_to_ccoctl_output_dir>ccoctl aws create-key-pair命令生成的公钥文件的路径。
    示例输出
    2021/04/13 11:16:09 Bucket <name>-oidc created
    2021/04/13 11:16:10 OpenID Connect discovery document in the S3 bucket <name>-oidc at .well-known/openid-configuration updated
    2021/04/13 11:16:10 Reading public key
    2021/04/13 11:16:10 JSON web key set (JWKS) in the S3 bucket <name>-oidc at keys.json updated
    2021/04/13 11:16:18 Identity Provider created with ARN: arn:aws:iam::<aws_account_id>:oidc-provider/<name>-oidc.s3.<aws_region>.amazonaws.com

    其中openid-configuration是发现文档,keys.json是JSON Web密钥集文件。

    此命令还会在/<path_to_ccoctl_output_dir>/manifests/cluster-authentication-02-config.yaml中创建一个YAML配置文件。此文件设置集群生成的Service Account令牌的发行者URL字段,以便AWS IAM身份提供程序信任这些令牌。

  3. 为集群中的每个组件创建IAM角色

    1. 通过运行以下命令,使用安装文件中的发行版镜像设置$RELEASE_IMAGE变量:

      $ RELEASE_IMAGE=$(./openshift-install version | awk '/release image/ {print $3}')
    2. 从OpenShift Container Platform发行版镜像中提取CredentialsRequest对象的列表

      $ oc adm release extract \
        --from=$RELEASE_IMAGE \
        --credentials-requests \
        --included \(1)
        --install-config=<path_to_directory_with_installation_configuration>/install-config.yaml \(2)
        --to=<path_to_directory_for_credentials_requests> (3)
      1 --included参数仅包含您的特定集群配置所需的清单。
      2 指定install-config.yaml文件的位置。
      3 指定要存储CredentialsRequest对象的目录的路径。如果指定的目录不存在,此命令将创建它。
    3. 使用ccoctl工具处理所有CredentialsRequest对象,运行以下命令:

      $ ccoctl aws create-iam-roles \
        --name=<name> \
        --region=<aws_region> \
        --credentials-requests-dir=<path_to_credentials_requests_directory> \
        --identity-provider-arn=arn:aws:iam::<aws_account_id>:oidc-provider/<name>-oidc.s3.<aws_region>.amazonaws.com

      对于使用替代IAM API端点(例如GovCloud)的AWS环境,您还必须使用--region参数指定您的区域。

      如果您的集群使用由TechPreviewNoUpgrade功能集启用的技术预览功能,则必须包含--enable-tech-preview参数。

      对于每个CredentialsRequest对象,ccoctl都会创建一个IAM角色,该角色具有与指定的OIDC身份提供商绑定的信任策略,以及在OpenShift Container Platform发行版镜像的每个CredentialsRequest对象中定义的权限策略。

验证
  • 要验证OpenShift Container Platform密钥是否已创建,请列出<path_to_ccoctl_output_dir>/manifests目录中的文件

    $ ls <path_to_ccoctl_output_dir>/manifests
    示例输出
    cluster-authentication-02-config.yaml
    openshift-cloud-credential-operator-cloud-credential-operator-iam-ro-creds-credentials.yaml
    openshift-cloud-network-config-controller-cloud-credentials-credentials.yaml
    openshift-cluster-api-capa-manager-bootstrap-credentials-credentials.yaml
    openshift-cluster-csi-drivers-ebs-cloud-credentials-credentials.yaml
    openshift-image-registry-installer-cloud-credentials-credentials.yaml
    openshift-ingress-operator-cloud-credentials-credentials.yaml
    openshift-machine-api-aws-cloud-credentials-credentials.yaml

    您可以通过查询AWS来验证IAM角色是否已创建。有关更多信息,请参阅有关列出IAM角色的AWS文档。

整合Cloud Credential Operator实用程序清单

要实现对单个组件进行集群外部管理的短期安全凭据,必须将Cloud Credential Operator实用程序(ccoctl)创建的清单文件移动到安装程序的正确目录。

先决条件
  • 您已配置了一个帐户,该帐户与托管您的集群的云平台连接。

  • 您已配置Cloud Credential Operator实用程序(ccoctl)。

  • 您已使用ccoctl实用程序创建了集群所需的云提供商资源。

步骤
  1. 如果您未在install-config.yaml配置文件中将credentialsMode参数设置为Manual,请修改该值,如下所示

    示例配置文件片段
    apiVersion: v1
    baseDomain: example.com
    credentialsMode: Manual
    # ...
  2. 如果您以前没有创建安装清单文件,请运行以下命令来创建:

    $ openshift-install create manifests --dir <installation_directory>

    其中<installation_directory>是安装程序创建文件的目录。

  3. 通过运行以下命令,将ccoctl实用程序生成的清单复制到安装程序创建的manifests目录

    $ cp /<path_to_ccoctl_output_dir>/manifests/* ./manifests/
  4. 将包含私钥的tls目录复制到安装目录

    $ cp -a /<path_to_ccoctl_output_dir>/tls .

集群网络操作员配置

集群网络的配置作为集群网络操作员(CNO)配置的一部分指定,并存储在一个名为cluster的自定义资源(CR)对象中。CR指定operator.openshift.io API组中Network API的字段。

在集群安装期间,CNO配置从Network.config.openshift.io API组中的Network API继承以下字段

clusterNetwork

分配Pod IP地址的IP地址池。

serviceNetwork

服务的IP地址池。

defaultNetwork.type

集群网络插件。在安装过程中,唯一支持的插件是OVNKubernetes

您可以通过设置名为cluster的CNO对象中defaultNetwork对象的字段来指定集群的集群网络插件配置。

集群网络操作员配置对象

集群网络操作员(CNO)的字段在以下表格中描述

表2. 集群网络操作员配置对象
字段 类型 描述

metadata.name

字符串

CNO对象的名称。此名称始终为cluster

spec.clusterNetwork

数组

一个列表,指定分配Pod IP地址的IP地址块以及分配给集群中每个节点的子网前缀长度。例如

spec:
  clusterNetwork:
  - cidr: 10.128.0.0/19
    hostPrefix: 23
  - cidr: 10.128.32.0/19
    hostPrefix: 23

spec.serviceNetwork

数组

服务的IP地址块。OVN-Kubernetes网络插件仅支持服务网络的单个IP地址块。例如

spec:
  serviceNetwork:
  - 172.30.0.0/14

您只能在创建清单之前在install-config.yaml文件中自定义此字段。该值在清单文件中是只读的。

spec.defaultNetwork

对象

配置集群网络的网络插件。

spec.kubeProxyConfig

对象

此对象的字段指定kube-proxy配置。如果您使用的是OVN-Kubernetes集群网络插件,则kube-proxy配置无效。

对于需要跨多个网络部署对象的集群,请确保为install-config.yaml文件中定义的每种网络类型指定相同的值作为clusterNetwork.hostPrefix参数。为每个clusterNetwork.hostPrefix参数设置不同的值可能会影响OVN-Kubernetes网络插件,插件无法有效地跨不同节点路由对象流量。

defaultNetwork对象配置

defaultNetwork对象的取值在以下表格中定义

表3. defaultNetwork对象
字段 类型 描述

type

字符串

OVNKubernetes。在安装过程中选择Red Hat OpenShift Networking网络插件。集群安装后无法更改此值。

OpenShift Container Platform默认使用OVN-Kubernetes网络插件。OpenShift SDN不再作为新集群的安装选项提供。

ovnKubernetesConfig

对象

此对象仅对OVN-Kubernetes网络插件有效。

OVN-Kubernetes网络插件的配置

下表描述了OVN-Kubernetes网络插件的配置字段

表4. ovnKubernetesConfig对象
字段 类型 描述

mtu

整数

Geneve(通用网络虚拟化封装)覆盖网络的最大传输单元 (MTU)。这会根据主网络接口的MTU自动检测。您通常不需要覆盖检测到的MTU。

如果自动检测到的值与您预期值不符,请确认节点上主网络接口上的MTU是否正确。您不能使用此选项更改节点上主网络接口的MTU值。

如果您的集群需要为不同的节点使用不同的MTU值,则必须将此值设置为集群中最低MTU值减去100。例如,如果集群中某些节点的MTU为9001,而某些节点的MTU为1500,则必须将此值设置为1400

genevePort

整数

用于所有Geneve数据包的端口。默认值为6081。集群安装后无法更改此值。

ipsecConfig

对象

指定一个配置对象以自定义IPsec配置。

ipv4

对象

指定IPv4设置的配置对象。

ipv6

对象

指定IPv6设置的配置对象。

policyAuditConfig

对象

指定一个配置对象以自定义网络策略审计日志记录。如果未设置,则使用默认审计日志设置。

gatewayConfig

对象

可选:指定一个配置对象以自定义如何将出站流量发送到节点网关。

迁移出站流量期间,在集群网络操作员 (CNO) 成功推出更改之前,您可能会遇到工作负载和服务流量的一些中断。

表5. ovnKubernetesConfig.ipv4对象
字段 类型 描述

internalTransitSwitchSubnet

字符串

如果您的现有网络基础设施与100.88.0.0/16 IPv4子网重叠,您可以为OVN-Kubernetes指定不同的内部使用IP地址范围。用于启用东西向流量的分布式转接交换机的子网。此子网不能与OVN-Kubernetes或主机本身使用的任何其他子网重叠。它必须足够大,足以容纳集群中每个节点的一个IP地址。

默认值为100.88.0.0/16

internalJoinSubnet

字符串

如果现有网络基础设施与100.64.0.0/16 IPv4 子网重叠,您可以为 OVN-Kubernetes 指定不同的内部使用 IP 地址范围。您必须确保此 IP 地址范围不与 OpenShift Container Platform 安装使用的任何其他子网重叠。IP 地址范围必须大于可以添加到集群中的节点最大数量。例如,如果clusterNetwork.cidr值为10.128.0.0/14,并且clusterNetwork.hostPrefix值为/23,则节点最大数量为2^(23-14)=512

默认值为100.64.0.0/16

表 6. ovnKubernetesConfig.ipv6 对象
字段 类型 描述

internalTransitSwitchSubnet

字符串

如果现有网络基础设施与fd97::/64 IPv6 子网重叠,您可以为 OVN-Kubernetes 指定不同的内部使用 IP 地址范围。这是启用东西向流量的分布式转接交换机的子网。此子网不能与 OVN-Kubernetes 或主机本身使用的任何其他子网重叠。它必须足够大,以容纳集群中每个节点一个 IP 地址。

默认值为fd97::/64

internalJoinSubnet

字符串

如果现有网络基础设施与fd98::/64 IPv6 子网重叠,您可以为 OVN-Kubernetes 指定不同的内部使用 IP 地址范围。您必须确保此 IP 地址范围不与 OpenShift Container Platform 安装使用的任何其他子网重叠。IP 地址范围必须大于可以添加到集群中的节点最大数量。

默认值为fd98::/64

表 7. policyAuditConfig 对象
字段 类型 描述

rateLimit

整数

每个节点每秒生成的最多消息数。默认值为每秒20条消息。

maxFileSize

整数

审计日志的最大大小(字节)。默认值为50000000或 50 MB。

maxLogFiles

整数

保留的最大日志文件数。

destination

字符串

以下附加审计日志目标之一

libc

主机上 journald 进程的 libc syslog() 函数。

udp:<host>:<port>

一个 syslog 服务器。将<host>:<port>替换为 syslog 服务器的主机和端口。

unix:<file>

<file>指定的 Unix 域套接字文件。

null

不将审计日志发送到任何其他目标。

syslogFacility

字符串

syslog 设施,例如kern,由 RFC5424 定义。默认值为local0

表 8. gatewayConfig 对象
字段 类型 描述

routingViaHost

布尔值

将此字段设置为true可将 Pod 的出站流量发送到主机网络堆栈。对于依赖于内核路由表中手动配置的路由的高度专业化安装和应用程序,您可能希望将出站流量路由到主机网络堆栈。默认情况下,出站流量在 OVN 中处理以退出集群,并且不受内核路由表中专用路由的影响。默认值为false

此字段与 Open vSwitch 硬件卸载功能存在交互。如果将此字段设置为true,则您将无法获得卸载的性能优势,因为出站流量由主机网络堆栈处理。

ipForwarding

对象

您可以使用Network资源中的ipForwarding规范来控制 OVN-Kubernetes 管理的接口上所有流量的 IP 转发。指定Restricted仅允许与 Kubernetes 相关的流量进行 IP 转发。指定Global允许转发所有 IP 流量。对于新安装,默认为Restricted。对于 OpenShift Container Platform 4.14 或更高版本的更新,默认为Global

ipv4

对象

可选:指定一个对象来配置用于 IPv4 地址的主机到服务的内部 OVN-Kubernetes 伪装地址。

ipv6

对象

可选:指定一个对象来配置用于 IPv6 地址的主机到服务的内部 OVN-Kubernetes 伪装地址。

表 9. gatewayConfig.ipv4 对象
字段 类型 描述

internalMasqueradeSubnet

字符串

在内部使用的伪装 IPv4 地址,用于启用主机到服务的流量。主机也配置了这些 IP 地址以及共享网关桥接接口。默认值为169.254.169.0/29

对于 OpenShift Container Platform 4.17 及更高版本,集群使用169.254.0.0/17作为默认伪装子网。对于升级的集群,默认伪装子网没有变化。

表 10. gatewayConfig.ipv6 对象
字段 类型 描述

internalMasqueradeSubnet

字符串

在内部使用的伪装 IPv6 地址,用于启用主机到服务的流量。主机也配置了这些 IP 地址以及共享网关桥接接口。默认值为fd69::/125

对于 OpenShift Container Platform 4.17 及更高版本,集群使用fd69::/112作为默认伪装子网。对于升级的集群,默认伪装子网没有变化。

表 11. ipsecConfig 对象
字段 类型 描述

mode

字符串

指定 IPsec 实现的行为。必须是以下值之一

  • Disabled:集群节点上未启用 IPsec。

  • External:对与外部主机的网络流量启用 IPsec。

  • Full:对 Pod 流量和与外部主机的网络流量启用 IPsec。

启用 IPSec 的示例 OVN-Kubernetes 配置
defaultNetwork:
  type: OVNKubernetes
  ovnKubernetesConfig:
    mtu: 1400
    genevePort: 6081
      ipsecConfig:
        mode: Full

指定高级网络配置

您可以将高级网络配置用于您的网络插件,以将您的集群集成到您现有的网络环境中。

您只能在安装集群之前指定高级网络配置。

不支持通过修改安装程序创建的 OpenShift Container Platform 清单文件来自定义网络配置。支持应用您创建的清单文件,如以下过程所示。

先决条件
  • 您已创建install-config.yaml文件并完成了对其的任何修改。

步骤
  1. 更改到包含安装程序的目录并创建清单

    $ ./openshift-install create manifests --dir <installation_directory> (1)
    1 <installation_directory>指定包含集群install-config.yaml文件的目录的名称。
  2. 为高级网络配置创建一个存根清单文件,该文件名为cluster-network-03-config.yml,位于<installation_directory>/manifests/目录中

    apiVersion: operator.openshift.io/v1
    kind: Network
    metadata:
      name: cluster
    spec:
  3. cluster-network-03-config.yml文件中指定集群的高级网络配置,例如以下示例

    为 OVN-Kubernetes 网络提供程序启用 IPsec
    apiVersion: operator.openshift.io/v1
    kind: Network
    metadata:
      name: cluster
    spec:
      defaultNetwork:
        ovnKubernetesConfig:
          ipsecConfig:
            mode: Full
  4. 可选:备份manifests/cluster-network-03-config.yml文件。当您创建 Ignition 配置文件时,安装程序会使用manifests/目录。

有关在 AWS 上使用网络负载均衡器 (NLB) 的更多信息,请参见 使用网络负载均衡器配置 AWS 上的 Ingress 集群流量

在新 AWS 集群上配置 Ingress Controller 网络负载均衡器

您可以在新集群上创建由 AWS 网络负载均衡器 (NLB) 支持的 Ingress Controller。

先决条件
  • 创建install-config.yaml文件并完成任何修改。

步骤

在新集群上创建由 AWS NLB 支持的 Ingress Controller。

  1. 更改到包含安装程序的目录并创建清单

    $ ./openshift-install create manifests --dir <installation_directory> (1)
    1 对于<installation_directory>,请指定包含集群install-config.yaml文件的目录名称。
  2. <installation_directory>/manifests/目录中创建一个名为cluster-ingress-default-ingresscontroller.yaml的文件。

    $ touch <installation_directory>/manifests/cluster-ingress-default-ingresscontroller.yaml (1)
    1 对于<installation_directory>,请指定包含集群manifests/目录的目录名称。

    创建文件后,manifests/目录中将包含多个网络配置文件,如下所示

    $ ls <installation_directory>/manifests/cluster-ingress-default-ingresscontroller.yaml
    示例输出
    cluster-ingress-default-ingresscontroller.yaml
  3. 在编辑器中打开cluster-ingress-default-ingresscontroller.yaml文件,并输入描述所需 Operator 配置的自定义资源 (CR)。

    apiVersion: operator.openshift.io/v1
    kind: IngressController
    metadata:
      creationTimestamp: null
      name: default
      namespace: openshift-ingress-operator
    spec:
      endpointPublishingStrategy:
        loadBalancer:
          scope: External
          providerParameters:
            type: AWS
            aws:
              type: NLB
        type: LoadBalancerService
  4. 保存cluster-ingress-default-ingresscontroller.yaml文件并退出文本编辑器。

  5. 可选:备份manifests/cluster-ingress-default-ingresscontroller.yaml文件。安装程序在创建集群时会删除manifests/目录。

配置使用 OVN-Kubernetes 的混合网络

您可以将集群配置为使用 OVN-Kubernetes 网络插件的混合网络。这允许支持不同节点网络配置的混合集群。

此配置对于在同一集群中运行 Linux 和 Windows 节点是必需的。

先决条件
  • 您在install-config.yaml文件中为networking.networkType参数定义了OVNKubernetes。有关在您选择的云提供商上配置 OpenShift Container Platform 网络自定义的更多信息,请参阅安装文档。

步骤
  1. 更改到包含安装程序的目录并创建清单

    $ ./openshift-install create manifests --dir <installation_directory>

    其中

    <installation_directory>

    指定包含集群install-config.yaml文件的目录名称。

  2. 为高级网络配置创建一个存根清单文件,该文件名为cluster-network-03-config.yml,位于<installation_directory>/manifests/目录中

    $ cat <<EOF > <installation_directory>/manifests/cluster-network-03-config.yml
    apiVersion: operator.openshift.io/v1
    kind: Network
    metadata:
      name: cluster
    spec:
    EOF

    其中

    <installation_directory>

    指定包含manifests/目录的目录名称。

  3. 在编辑器中打开cluster-network-03-config.yml文件,并按照以下示例配置使用混合网络的 OVN-Kubernetes

    指定混合网络配置
    apiVersion: operator.openshift.io/v1
    kind: Network
    metadata:
      name: cluster
    spec:
      defaultNetwork:
        ovnKubernetesConfig:
          hybridOverlayConfig:
            hybridClusterNetwork: (1)
            - cidr: 10.132.0.0/14
              hostPrefix: 23
            hybridOverlayVXLANPort: 9898 (2)
    1 指定用于附加覆盖网络上节点的 CIDR 配置。hybridClusterNetwork CIDR 必须与clusterNetwork CIDR 不重叠。
    2 为附加覆盖网络指定自定义 VXLAN 端口。这对于在 vSphere 上安装的集群中运行 Windows 节点是必需的,并且不能为任何其他云提供商配置。自定义端口可以是任何开放端口,但不包括默认的4789端口。有关此要求的更多信息,请参阅 Microsoft 文档 主机之间的 Pod 到 Pod 连接在我的 Kubernetes 集群上中断

    Windows Server 长期服务通道 (LTSC):对于具有自定义hybridOverlayVXLANPort值的集群,不支持 Windows Server 2019,因为此 Windows 服务器版本不支持选择自定义 VXLAN 端口。

  4. 保存cluster-network-03-config.yml文件并退出文本编辑器。

  5. 可选:备份manifests/cluster-network-03-config.yml文件。安装程序在创建集群时会删除manifests/目录。

有关在同一集群中使用 Linux 和 Windows 节点的更多信息,请参阅 了解 Windows 容器工作负载

部署集群

您可以在兼容的云平台上安装 OpenShift Container Platform。

您只能在初始安装期间运行安装程序的create cluster命令一次。

先决条件
  • 您已配置了一个帐户,该帐户与托管您的集群的云平台连接。

  • 您拥有 OpenShift Container Platform 安装程序和集群的拉取密钥。

  • 您已验证主机上的云提供商帐户具有部署集群的正确权限。权限错误的帐户会导致安装过程失败,并显示一条显示缺少权限的错误消息。

步骤
  1. 切换到包含安装程序的目录并初始化集群部署

    $ ./openshift-install create cluster --dir <installation_directory> \ (1)
        --log-level=info (2)
    
    1 对于<installation_directory>,请指定您自定义的./install-config.yaml文件的位置。
    2 要查看不同的安装详细信息,请指定warndebugerror代替info
  2. 可选:从用于安装集群的 IAM 帐户中删除或禁用AdministratorAccess策略。

    只有在安装过程中才需要AdministratorAccess策略提供的提升权限。

验证

当集群部署成功完成时

  • 终端将显示访问集群的方向,包括指向 Web 控制台的链接和kubeadmin用户的凭据。

  • 凭据信息也会输出到<installation_directory>/.openshift_install.log

不要删除安装程序或安装程序创建的文件。两者都是删除集群所必需的。

示例输出
...
INFO Install complete!
INFO To access the cluster as the system:admin user when using 'oc', run 'export KUBECONFIG=/home/myuser/install_dir/auth/kubeconfig'
INFO Access the OpenShift web-console here: https://console-openshift-console.apps.mycluster.example.com
INFO Login to the console with user: "kubeadmin", and password: "password"
INFO Time elapsed: 36m22s
  • 安装程序生成的 Ignition 配置文件包含在 24 小时后过期的证书,然后在此时续订。如果集群在续订证书之前关闭,并且在 24 小时后重新启动,则集群会自动恢复过期的证书。例外情况是,您必须手动批准挂起的node-bootstrapper证书签名请求 (CSR) 以恢复 kubelet 证书。有关更多信息,请参阅有关“从过期的控制平面证书中恢复”的文档。

  • 建议您在生成 Ignition 配置文件后 12 小时内使用它们,因为 24 小时证书将在集群安装后 16 到 22 小时之间轮换。通过在 12 小时内使用 Ignition 配置文件,如果证书更新在安装期间运行,您可以避免安装失败。

使用 CLI 登录集群

您可以通过导出集群kubeconfig文件以默认系统用户身份登录到集群。kubeconfig文件包含集群信息,CLI 使用这些信息将客户端连接到正确的集群和 API 服务器。该文件特定于一个集群,并在 OpenShift Container Platform 安装期间创建。

先决条件
  • 您部署了一个 OpenShift Container Platform 集群。

  • 您安装了oc CLI。

步骤
  1. 导出kubeadmin凭据

    $ export KUBECONFIG=<installation_directory>/auth/kubeconfig (1)
    1 对于<installation_directory>,请指定您存储安装文件的目录的路径。
  2. 验证您可以使用导出的配置成功运行oc命令

    $ oc whoami
    示例输出
    system:admin

使用 Web 控制台登录集群

安装 OpenShift Container Platform 后,默认情况下会存在kubeadmin用户。您可以使用 OpenShift Container Platform Web 控制台以kubeadmin用户身份登录集群。

先决条件
  • 您可以访问安装主机。

  • 您已完成集群安装,并且所有集群操作员都可用。

步骤
  1. 从安装主机上的kubeadmin-password文件中获取kubeadmin用户的密码。

    $ cat <installation_directory>/auth/kubeadmin-password

    或者,您可以从安装主机上的<安装目录>/.openshift_install.log日志文件中获取kubeadmin密码。

  2. 列出 OpenShift Container Platform Web 控制台路由。

    $ oc get routes -n openshift-console | grep 'console-openshift'

    或者,您可以从安装主机上的<安装目录>/.openshift_install.log日志文件中获取 OpenShift Container Platform 路由。

    示例输出
    console     console-openshift-console.apps.<cluster_name>.<base_domain>            console     https   reencrypt/Redirect   None
  3. 在 Web 浏览器中导航到前面命令输出中详细说明的路由,并以kubeadmin用户身份登录。

其他资源
  • 有关访问和了解 OpenShift Container Platform Web 控制台的更多详细信息,请参见访问 Web 控制台

后续步骤