×

在 OpenShift Container Platform 4.17 版本中,您可以将集群安装到 Amazon Web Services (AWS) 的以下秘密区域:

  • 秘密商业云服务 (SC2S)

  • 商业云服务 (C2S)

要在任一区域配置集群,请在安装集群之前更改install config.yaml文件中的参数。

在 OpenShift Container Platform 4.17 中,安装程序使用 Cluster API 而不是 Terraform 在 AWS 上的安装过程中预配集群基础设施。截至 OpenShift Container Platform 4.17 版本发布,使用 Cluster API 实现将集群安装到秘密或绝密区域尚未经过测试。安装到秘密区域后,本文档将进行更新。

网络负载均衡器对秘密或绝密区域中安全组的支持存在已知问题,这会导致这些区域中的安装失败。更多信息,请参见 OCPBUGS-33311

先决条件

AWS 秘密区域

支持以下 AWS 秘密分区

  • us-isob-east-1 (SC2S)

  • us-iso-east-1 (C2S)

AWS SC2S 和 C2S 区域中支持的最大 MTU 与 AWS 商业区域不同。有关在安装过程中配置 MTU 的更多信息,请参阅在 AWS 上安装具有网络自定义的集群中的集群网络运营商配置对象部分。

安装要求

Red Hat 不发布适用于 AWS 秘密区域和绝密区域的 Red Hat Enterprise Linux CoreOS (RHCOS) Amazon 机器镜像。

在安装集群之前,您必须:

  • 上传自定义 RHCOS AMI。

  • 手动创建安装配置文件 (install-config.yaml)。

  • 在安装配置文件中指定 AWS 区域和相应的自定义 AMI。

您不能使用 OpenShift Container Platform 安装程序来创建安装配置文件。安装程序不会列出没有 RHCOS AMI 原生支持的 AWS 区域。

您还必须在install-config.yaml文件的additionalTrustBundle字段中定义一个自定义 CA 证书,因为 AWS API 需要自定义 CA 信任捆绑包。为使安装程序能够访问 AWS API,CA 证书也必须在运行安装程序的机器上定义。您必须将 CA 捆绑包添加到机器上的信任存储区,使用AWS_CA_BUNDLE环境变量,或在 AWS 配置文件的ca_bundle字段中定义 CA 捆绑包。

私有集群

您可以部署一个不公开外部端点的私有 OpenShift Container Platform 集群。私有集群只能从内部网络访问,并且对互联网不可见。

AWS 绝密区域中的 Route 53 不支持公共区域。因此,如果将集群部署到 AWS 绝密区域,则集群必须是私有的。

默认情况下,OpenShift Container Platform 配置为使用公共可访问的 DNS 和端点。部署集群时,私有集群会将 DNS、Ingress 控制器和 API 服务器设置为私有。这意味着集群资源只能从您的内部网络访问,并且对互联网不可见。

如果集群有任何公共子网,则管理员创建的负载均衡器服务可能可公开访问。为确保集群安全,请验证这些服务是否明确标注为私有。

要部署私有集群,您必须:

  • 使用满足您要求的现有网络。您的集群资源可能在网络上的其他集群之间共享。

  • 从具有访问权限的机器部署:

    • 您要配置的云的 API 服务。

    • 您要配置的网络上的主机。

    • 互联网以获取安装介质。

您可以使用任何满足这些访问要求并遵循您公司准则的机器。例如,这台机器可以是您云网络上的堡垒主机,也可以是通过 VPN 访问网络的机器。

AWS 中的私有集群

要在 Amazon Web Services (AWS) 上创建私有集群,您必须提供现有的私有 VPC 和子网来托管集群。安装程序还必须能够解析集群所需的 DNS 记录。安装程序将 Ingress 运算符和 API 服务器配置为仅从私有网络访问。

集群仍然需要访问互联网才能访问 AWS API。

安装私有集群时,不需要或不创建以下项目:

  • 公共子网

  • 支持公共入口的公共负载均衡器

  • 与集群的baseDomain匹配的公共 Route 53 区域

安装程序确实使用您指定的baseDomain来创建私有 Route 53 区域和集群所需的记录。集群配置为运算符不为集群创建公共记录,并且所有集群机器都放置在您指定的私有子网中。

限制

向私有集群添加公共功能的能力是有限的。

  • 安装后,您无法使 Kubernetes API 端点公开,除非采取其他措施,包括为正在使用的每个可用区创建 VPC 中的公共子网、创建公共负载均衡器以及将控制平面安全组配置为允许来自互联网的 6443(Kubernetes API 端口)的流量。

  • 如果您使用公共服务类型负载均衡器,则必须为每个可用区中的公共子网添加标签kubernetes.io/cluster/: shared,以便 AWS 可以使用它们来创建公共负载均衡器。

关于使用自定义 VPC

在 OpenShift Container Platform 4.17 中,您可以将集群部署到 Amazon Web Services (AWS) 中现有 Amazon Virtual Private Cloud (VPC) 中的现有子网中。通过将 OpenShift Container Platform 部署到现有的 AWS VPC,您也许可以避免新账户中的限制约束,或者更容易遵守您公司准则设定的操作约束。如果您无法获得创建 VPC 所需的基础设施创建权限,请使用此安装选项。

由于安装程序无法知道您的现有子网中还包含哪些其他组件,因此它无法代表您选择子网 CIDR 等。您必须自己为安装集群的子网配置网络。

使用 VPC 的要求

安装程序不再创建以下组件:

  • 互联网网关

  • NAT 网关

  • 子网

  • 路由表

  • VPC

  • VPC DHCP 选项

  • VPC 端点

安装程序要求您使用云提供的 DNS 服务器。不支持使用自定义 DNS 服务器,这会导致安装失败。

如果您使用自定义 VPC,则必须正确配置它及其子网,以便安装程序和集群可以使用。有关 AWS VPC 控制台向导配置以及创建和管理 AWS VPC 的更多信息,请参阅 Amazon Web Services 文档中的创建 VPC

安装程序无法

  • 细分集群使用的网络范围。

  • 为子网设置路由表。

  • 设置 DHCP 等 VPC 选项。

您必须在安装集群之前完成这些任务。有关在 AWS VPC 中配置网络的更多信息,请参阅VPC 网络组件VPC 的路由表

您的 VPC 必须满足以下特征

  • VPC 必须不使用kubernetes.io/cluster/.*: ownedNameopenshift.io/cluster标签。

    安装程序会修改您的子网以添加kubernetes.io/cluster/.*: shared标签,因此您的子网必须至少有一个可用的空标签槽位。请参阅 AWS 文档中的标签限制,以确认安装程序可以向您指定的每个子网添加标签。您不能使用Name标签,因为它与 EC2 的Name字段重叠,导致安装失败。

  • 如果您想将 OpenShift Container Platform 集群扩展到 AWS Outpost 并拥有现有的 Outpost 子网,则现有子网必须使用kubernetes.io/cluster/unmanaged: true标签。如果您不应用此标签,则安装可能会失败,因为 Cloud Controller Manager 会在 Outpost 子网中创建服务负载均衡器,这是一个不受支持的配置。

  • 您必须在 VPC 中启用enableDnsSupportenableDnsHostnames属性,以便集群可以使用附加到 VPC 的 Route 53 区域来解析集群的内部 DNS 记录。请参阅 AWS 文档中的VPC 中的 DNS 支持

    如果您希望使用您自己的 Route 53 托管私有区域,则必须在安装集群之前将现有托管区域与您的 VPC 关联。您可以使用install-config.yaml文件中的platform.aws.hostedZoneplatform.aws.hostedZoneRole字段定义您的托管区域。您可以通过与安装集群的帐户共享私有托管区域来使用另一个帐户的私有托管区域。如果您使用另一个帐户的私有托管区域,则必须使用PassthroughManual凭据模式。

SC2S 或 C2S 区域中的集群无法访问 EC2、ELB 和 S3 端点的公共 IP 地址。根据您希望在安装期间限制互联网流量的程度,可以使用以下配置选项:

选项 1:创建 VPC 端点

创建一个 VPC 端点并将其附加到集群正在使用的子网。将端点命名如下:

SC2S
  • elasticloadbalancing.<aws_region>.sc2s.sgov.gov

  • ec2.<aws_region>.sc2s.sgov.gov

  • s3.<aws_region>.sc2s.sgov.gov

C2S
  • elasticloadbalancing.<aws_region>.c2s.ic.gov

  • ec2.<aws_region>.c2s.ic.gov

  • s3.<aws_region>.c2s.ic.gov

使用此选项,网络流量将保留在您的 VPC 和所需的 AWS 服务之间。

选项 2:创建不使用 VPC 端点的代理

作为安装过程的一部分,您可以配置 HTTP 或 HTTPS 代理。使用此选项,互联网流量将通过代理来访问所需的 AWS 服务。

选项 3:创建使用 VPC 端点的代理

作为安装过程的一部分,您可以使用 VPC 端点配置 HTTP 或 HTTPS 代理。创建一个 VPC 端点并将其附加到集群正在使用的子网。将端点命名如下:

SC2S
  • elasticloadbalancing.<aws_region>.sc2s.sgov.gov

  • ec2.<aws_region>.sc2s.sgov.gov

  • s3.<aws_region>.sc2s.sgov.gov

C2S
  • elasticloadbalancing.<aws_region>.c2s.ic.gov

  • ec2.<aws_region>.c2s.ic.gov

  • s3.<aws_region>.c2s.ic.gov

install-config.yaml文件中配置代理时,请将这些端点添加到noProxy字段。使用此选项,代理可以防止集群直接访问互联网。但是,网络流量将保留在您的 VPC 和所需的 AWS 服务之间。

必需的 VPC 组件

您必须提供合适的 VPC 和子网,以允许与您的机器进行通信。

组件 AWS 类型 描述

VPC

  • AWS::EC2::VPC

  • AWS::EC2::VPCEndpoint

您必须为集群提供一个公共 VPC。VPC 使用引用每个子网路由表的端点,以改进与托管在 S3 中的注册表的通信。

公共子网

  • AWS::EC2::Subnet

  • AWS::EC2::SubnetNetworkAclAssociation

您的 VPC 必须具有 1 到 3 个可用区之间的公共子网,并将它们与适当的入站规则关联。

互联网网关

  • AWS::EC2::InternetGateway

  • AWS::EC2::VPCGatewayAttachment

  • AWS::EC2::RouteTable

  • AWS::EC2::Route

  • AWS::EC2::SubnetRouteTableAssociation

  • AWS::EC2::NatGateway

  • AWS::EC2::EIP

您必须拥有一个公共互联网网关,以及附加到 VPC 的公共路由。在提供的模板中,每个公共子网都有一个带有 EIP 地址的 NAT 网关。这些 NAT 网关允许集群资源(如私有子网实例)访问互联网,并且在某些受限网络或代理方案中不是必需的。

网络访问控制

  • AWS::EC2::NetworkAcl

  • AWS::EC2::NetworkAclEntry

您必须允许 VPC 访问以下端口:

端口

原因

80

入站 HTTP 流量

443

入站 HTTPS 流量

22

入站 SSH 流量

1024 - 65535

入站短暂流量

0 - 65535

出站短暂流量

私有子网

  • AWS::EC2::Subnet

  • AWS::EC2::RouteTable

  • AWS::EC2::SubnetRouteTableAssociation

您的 VPC 可以拥有私有子网。提供的 CloudFormation 模板可以为 1 到 3 个可用区创建私有子网。如果您使用私有子网,则必须为它们提供适当的路由和表。

VPC 验证

为了确保您提供的子网合适,安装程序会确认以下数据:

  • 您指定的所有子网都存在。

  • 您提供了私有子网。

  • 子网 CIDR 属于您指定的机器 CIDR。

  • 您为每个可用区提供子网。每个可用区最多包含一个公共子网和一个私有子网。如果您使用私有集群,则只为每个可用区提供一个私有子网。否则,为每个可用区提供正好一个公共子网和一个私有子网。

  • 您为每个私有子网可用区提供一个公共子网。不会在您未为其提供私有子网的可用区中配置机器。

如果您销毁使用现有 VPC 的集群,则不会删除 VPC。当您从 VPC 中删除 OpenShift Container Platform 集群时,kubernetes.io/cluster/.*: shared标签将从其使用的子网中删除。

权限划分

从 OpenShift Container Platform 4.3 版本开始,部署集群不需要安装程序预配的基础设施集群所需的所有权限。此更改模拟了您公司可能拥有的权限划分:一些人可以比其他人创建云中的不同资源。例如,您可能能够创建特定于应用程序的项目,例如实例、存储桶和负载均衡器,但不能创建与网络相关的组件,例如 VPC、子网或入口规则。

创建集群时使用的 AWS 凭证不需要创建 VPC 和 VPC 内的核心网络组件(例如子网、路由表、互联网网关、NAT 和 VPN)所需的网络权限。您仍然需要权限来创建集群内机器所需的应用程序资源,例如 ELB、安全组、S3 存储桶和节点。

集群间的隔离

如果将 OpenShift Container Platform 部署到现有网络,则集群服务的隔离会以以下方式降低

  • 您可以在同一个 VPC 中安装多个 OpenShift Container Platform 集群。

  • 允许来自整个网络的 ICMP 入口。

  • 允许来自整个网络的 TCP 22 入口(SSH)。

  • 允许来自整个网络的控制平面 TCP 6443 入口(Kubernetes API)。

  • 允许来自整个网络的控制平面 TCP 22623 入口(MCS)。

可选:AWS 安全组

默认情况下,安装程序会创建安全组并将其附加到控制平面和计算机器。与默认安全组关联的规则无法修改。

但是,您可以将与现有 VPC 关联的额外现有 AWS 安全组应用于控制平面和计算机器。在需要控制这些机器的入站或出站流量的情况下,应用自定义安全组可以帮助您满足组织的安全需求。

作为安装过程的一部分,您可以在部署集群之前修改 install-config.yaml 文件来应用自定义安全组。

有关更多信息,请参阅“将现有 AWS 安全组应用于集群”。

在 AWS 中上传自定义 RHCOS AMI

如果要部署到自定义 Amazon Web Services (AWS) 区域,则必须上传属于该区域的自定义 Red Hat Enterprise Linux CoreOS (RHCOS) Amazon 机器镜像 (AMI)。

先决条件
  • 您已配置 AWS 账户。

  • 您已创建具有所需 IAM 服务角色 的 Amazon S3 存储桶。

  • 您已将 RHCOS VMDK 文件上传到 Amazon S3。RHCOS VMDK 文件必须是小于或等于您正在安装的 OpenShift Container Platform 版本的最高版本。

  • 您已下载 AWS CLI 并将其安装到您的计算机上。请参阅 使用捆绑安装程序安装 AWS CLI

步骤
  1. 将您的 AWS 配置文件导出为环境变量

    $ export AWS_PROFILE=<aws_profile> (1)
  2. 将要与自定义 AMI 关联的区域导出为环境变量

    $ export AWS_DEFAULT_REGION=<aws_region> (1)
  3. 将您上传到 Amazon S3 的 RHCOS 版本导出为环境变量

    $ export RHCOS_VERSION=<version> (1)
    1 RHCOS VMDK 版本,例如 4.17.0
  4. 将 Amazon S3 存储桶名称导出为环境变量

    $ export VMIMPORT_BUCKET_NAME=<s3_bucket_name>
  5. 创建 containers.json 文件并定义您的 RHCOS VMDK 文件

    $ cat <<EOF > containers.json
    {
       "Description": "rhcos-${RHCOS_VERSION}-x86_64-aws.x86_64",
       "Format": "vmdk",
       "UserBucket": {
          "S3Bucket": "${VMIMPORT_BUCKET_NAME}",
          "S3Key": "rhcos-${RHCOS_VERSION}-x86_64-aws.x86_64.vmdk"
       }
    }
    EOF
  6. 将 RHCOS 磁盘导入为 Amazon EBS 快照

    $ aws ec2 import-snapshot --region ${AWS_DEFAULT_REGION} \
         --description "<description>" \ (1)
         --disk-container "file://<file_path>/containers.json" (2)
    
    1 您要导入的 RHCOS 磁盘的描述,例如 rhcos-${RHCOS_VERSION}-x86_64-aws.x86_64
    2 描述您 RHCOS 磁盘的 JSON 文件的文件路径。JSON 文件应包含您的 Amazon S3 存储桶名称和密钥。
  7. 检查镜像导入的状态

    $ watch -n 5 aws ec2 describe-import-snapshot-tasks --region ${AWS_DEFAULT_REGION}
    示例输出
    {
        "ImportSnapshotTasks": [
            {
                "Description": "rhcos-4.7.0-x86_64-aws.x86_64",
                "ImportTaskId": "import-snap-fh6i8uil",
                "SnapshotTaskDetail": {
                    "Description": "rhcos-4.7.0-x86_64-aws.x86_64",
                    "DiskImageSize": 819056640.0,
                    "Format": "VMDK",
                    "SnapshotId": "snap-06331325870076318",
                    "Status": "completed",
                    "UserBucket": {
                        "S3Bucket": "external-images",
                        "S3Key": "rhcos-4.7.0-x86_64-aws.x86_64.vmdk"
                    }
                }
            }
        ]
    }

    复制 SnapshotId 以注册镜像。

  8. 从 RHCOS 快照创建自定义 RHCOS AMI

    $ aws ec2 register-image \
       --region ${AWS_DEFAULT_REGION} \
       --architecture x86_64 \ (1)
       --description "rhcos-${RHCOS_VERSION}-x86_64-aws.x86_64" \ (2)
       --ena-support \
       --name "rhcos-${RHCOS_VERSION}-x86_64-aws.x86_64" \ (3)
       --virtualization-type hvm \
       --root-device-name '/dev/xvda' \
       --block-device-mappings 'DeviceName=/dev/xvda,Ebs={DeleteOnTermination=true,SnapshotId=<snapshot_ID>}' (4)
    
    1 RHCOS VMDK 架构类型,例如 x86_64aarch64s390xppc64le
    2 导入快照的 Description
    3 RHCOS AMI 的名称。
    4 导入快照的 SnapshotID

要了解有关这些 API 的更多信息,请参阅 AWS 文档,了解 导入快照创建基于 EBS 的 AMI

手动创建安装配置文件

安装集群需要您手动创建安装配置文件。

先决条件
  • 您已上传自定义 RHCOS AMI。

  • 您在本地机器上有一个 SSH 公钥,需要提供给安装程序。该密钥将用于 SSH 身份验证到您的集群节点,用于调试和灾难恢复。

  • 您已获得 OpenShift Container Platform 安装程序和集群的拉取密钥。

步骤
  1. 创建一个安装目录来存储所需的安装资源

    $ mkdir <installation_directory>

    您必须创建一个目录。某些安装资源(例如 bootstrap X.509 证书)的有效期很短,因此您不能重复使用安装目录。如果您想重用另一个集群安装的单个文件,您可以将它们复制到您的目录中。但是,安装资源的文件名在不同版本之间可能会更改。从早期 OpenShift Container Platform 版本复制安装文件时,请务必小心。

  2. 自定义提供的示例 install-config.yaml 文件模板,并将其保存在 <installation_directory> 中。

    您必须将此配置文件命名为 install-config.yaml

  3. 备份 install-config.yaml 文件,以便您可以使用它来安装多个集群。

    install-config.yaml 文件将在安装过程的下一步中使用。您现在必须对其进行备份。

AWS 的已测试实例类型

以下 Amazon Web Services (AWS) 实例类型已通过 OpenShift Container Platform 测试。

对您的 AWS 实例使用以下图表中包含的机器类型。如果您使用图表中未列出的实例类型,请确保您使用的实例大小与“集群安装的最低资源要求”部分中列出的最低资源要求相匹配。

基于 64 位 x86 架构的秘密区域的机器类型
  • c4.*

  • c5.*

  • i3.*

  • m4.*

  • m5.*

  • r4.*

  • r5.*

  • t3.*

AWS 的自定义 install-config.yaml 文件示例

您可以自定义安装配置文件 (install-config.yaml) 以指定有关 OpenShift Container Platform 集群平台的更多详细信息,或修改所需参数的值。

此示例 YAML 文件仅供参考。将其作为资源,将参数值输入到您手动创建的安装配置文件中。

apiVersion: v1
baseDomain: example.com (1)
credentialsMode: Mint (2)
controlPlane:  (3) (4)
  hyperthreading: Enabled (5)
  name: master
  platform:
    aws:
      zones:
      - us-iso-east-1a
      - us-iso-east-1b
      rootVolume:
        iops: 4000
        size: 500
        type: io1 (6)
      metadataService:
        authentication: Optional (7)
      type: m6i.xlarge
  replicas: 3
compute: (3)
- hyperthreading: Enabled (5)
  name: worker
  platform:
    aws:
      rootVolume:
        iops: 2000
        size: 500
        type: io1 (6)
      metadataService:
        authentication: Optional (7)
      type: c5.4xlarge
      zones:
      - us-iso-east-1a
      - us-iso-east-1b
  replicas: 3
metadata:
  name: test-cluster (1)
networking:
  clusterNetwork:
  - cidr: 10.128.0.0/14
    hostPrefix: 23
  machineNetwork:
  - cidr: 10.0.0.0/16
  networkType: OVNKubernetes (8)
  serviceNetwork:
  - 172.30.0.0/16
platform:
  aws:
    region: us-iso-east-1 (1)
    propagateUserTags: true (3)
    userTags:
      adminContact: jdoe
      costCenter: 7536
    subnets: (9)
    - subnet-1
    - subnet-2
    - subnet-3
    amiID: ami-96c6f8f7  (1) (10)
    serviceEndpoints: (11)
      - name: ec2
        url: https://vpce-id.ec2.us-west-2.vpce.amazonaws.com
    hostedZone: Z3URY6TWQ91KVV (12)
fips: false (13)
sshKey: ssh-ed25519 AAAA... (14)
publish: Internal (15)
pullSecret: '{"auths": ...}' (1)
additionalTrustBundle: | (16)
    -----BEGIN CERTIFICATE-----
    <MY_TRUSTED_CA_CERT>
    -----END CERTIFICATE-----
1 必需。
2 可选:添加此参数以强制云凭据操作符 (CCO) 使用指定的模式。默认情况下,CCO 使用kube-system命名空间中的根凭据来动态尝试确定凭据的功能。有关 CCO 模式的详细信息,请参阅《身份验证和授权》指南中的“关于云凭据操作符”部分。
3 如果您未提供这些参数和值,安装程序将提供默认值。
4 controlPlane部分是单个映射,但compute部分是映射序列。为了满足不同数据结构的要求,compute部分的第一行必须以连字符-开头,而controlPlane部分的第一行则不能。只使用一个控制平面池。
5 是否启用或禁用同时多线程处理,或超线程。默认情况下,启用同时多线程处理以提高机器内核的性能。您可以通过将参数值设置为Disabled来禁用它。如果您在某些集群机器中禁用了同时多线程处理,则必须在所有集群机器中禁用它。

如果您禁用同时多线程处理,请确保您的容量规划考虑到了机器性能的大幅下降。如果您禁用同时多线程处理,请为您的机器使用更大的实例类型,例如m4.2xlargem5.2xlarge

6 为了为 etcd 配置更快的存储,特别是对于更大的集群,请将存储类型设置为io1并将iops设置为2000
7 是否需要Amazon EC2 实例元数据服务 v2 (IMDSv2)。要需要 IMDSv2,请将参数值设置为Required。要允许同时使用 IMDSv1 和 IMDSv2,请将参数值设置为Optional。如果未指定值,则允许使用 IMDSv1 和 IMDSv2。

在集群安装期间设置的控制平面机器的 IMDS 配置只能使用 AWS CLI 更改。计算机器的 IMDS 配置可以使用计算机器集更改。

8 要安装的集群网络插件。默认值OVNKubernetes是唯一支持的值。
9 如果您提供自己的 VPC,请为集群使用的每个可用区指定子网。
10 用于引导集群机器的 AMI ID。如果设置了,AMI 必须属于与集群相同的区域。
11 AWS 服务端点。安装到未知 AWS 区域时需要自定义端点。端点 URL 必须使用https协议,并且主机必须信任证书。
12 您现有 Route 53 专用托管区的 ID。提供现有托管区需要您提供自己的 VPC,并且托管区在安装集群之前已与 VPC 关联。如果未定义,安装程序将创建一个新的托管区。
13 是否启用或禁用 FIPS 模式。默认情况下,未启用 FIPS 模式。如果启用了 FIPS 模式,则运行 OpenShift Container Platform 的 Red Hat Enterprise Linux CoreOS (RHCOS) 机器将绕过默认的 Kubernetes 加密套件,并改用 RHCOS 提供的加密模块。

要为您的集群启用 FIPS 模式,您必须从配置为在 FIPS 模式下运行的 Red Hat Enterprise Linux (RHEL) 计算机运行安装程序。有关在 RHEL 上配置 FIPS 模式的更多信息,请参阅将 RHEL 切换到 FIPS 模式

在 FIPS 模式下启动的 Red Hat Enterprise Linux (RHEL) 或 Red Hat Enterprise Linux CoreOS (RHCOS) 运行时,OpenShift Container Platform 核心组件仅在 x86_64、ppc64le 和 s390x 架构上使用已提交给 NIST 进行 FIPS 140-2/140-3 验证的 RHEL 加密库。

14 您可以选择提供用于访问集群中机器的sshKey值。

对于要执行安装调试或灾难恢复的生产 OpenShift Container Platform 集群,请指定您的ssh-agent进程使用的 SSH 密钥。

15 如何发布集群的用户端点。将publish设置为Internal以部署私有集群,该集群无法从互联网访问。默认值为External
16 自定义 CA 证书。部署到 SC2S 或 C2S 区域时需要此证书,因为 AWS API 需要自定义 CA 信任捆绑包。

在安装期间配置集群范围的代理

生产环境可以拒绝直接访问互联网,而是提供 HTTP 或 HTTPS 代理。您可以通过在install-config.yaml文件中配置代理设置来配置新的 OpenShift Container Platform 集群以使用代理。

先决条件
  • 您有一个现有的install-config.yaml文件。

  • 您已查看集群需要访问的站点,并确定其中任何站点是否需要绕过代理。默认情况下,所有集群出口流量都将被代理,包括对托管云提供商 API 的调用。如果需要,您已将站点添加到Proxy对象的spec.noProxy字段以绕过代理。

    Proxy对象的status.noProxy字段将填充安装配置中的networking.machineNetwork[].cidrnetworking.clusterNetwork[].cidrnetworking.serviceNetwork[]字段的值。

    对于在 Amazon Web Services (AWS)、Google Cloud Platform (GCP)、Microsoft Azure 和 Red Hat OpenStack Platform (RHOSP) 上的安装,Proxy对象的status.noProxy字段还将填充实例元数据端点 (169.254.169.254)。

步骤
  1. 编辑您的install-config.yaml文件并添加代理设置。例如

    apiVersion: v1
    baseDomain: my.domain.com
    proxy:
      httpProxy: http://<username>:<pswd>@<ip>:<port> (1)
      httpsProxy: https://<username>:<pswd>@<ip>:<port> (2)
      noProxy: ec2.<aws_region>.amazonaws.com,elasticloadbalancing.<aws_region>.amazonaws.com,s3.<aws_region>.amazonaws.com (3)
    additionalTrustBundle: | (4)
        -----BEGIN CERTIFICATE-----
        <MY_TRUSTED_CA_CERT>
        -----END CERTIFICATE-----
    additionalTrustBundlePolicy: <policy_to_add_additionalTrustBundle> (5)
    1 用于创建集群外部 HTTP 连接的代理 URL。URL 方案必须为http
    2 用于创建集群外部 HTTPS 连接的代理 URL。
    3 要从代理中排除的目标域名、IP 地址或其他网络 CIDR 的逗号分隔列表。在域名前加上.以仅匹配子域。例如,.y.com匹配x.y.com,但不匹配y.com。使用*绕过所有目标的代理。如果您已将 Amazon EC2Elastic Load BalancingS3 VPC 端点添加到您的 VPC,则必须将这些端点添加到noProxy字段。
    4 如果提供,安装程序将生成一个名为user-ca-bundle的 config map,该 map 位于openshift-config命名空间中,其中包含代理 HTTPS 连接所需的⼀个或多个附加 CA 证书。然后,集群网络操作符将创建一个trusted-ca-bundle config map,并将这些内容与 Red Hat Enterprise Linux CoreOS (RHCOS) 信任捆绑包合并,并且此 config map 在Proxy对象的trustedCA字段中引用。除非代理的身份证书由 RHCOS 信任捆绑包中的授权机构签名,否则需要additionalTrustBundle字段。
    5 可选:确定Proxy对象的配置以在trustedCA字段中引用user-ca-bundle config map 的策略。允许的值为ProxyonlyAlways。使用Proxyonly仅在配置http/https代理时引用user-ca-bundle config map。使用Always始终引用user-ca-bundle config map。默认值为Proxyonly

    安装程序不支持代理readinessEndpoints字段。

    如果安装程序超时,请重新启动,然后使用安装程序的wait-for命令完成部署。例如

    $ ./openshift-install wait-for install-complete --log-level debug
  2. 保存文件并在安装 OpenShift Container Platform 时引用它。

安装程序创建一个名为cluster的集群范围代理,该代理使用提供的install-config.yaml文件中的代理设置。如果没有提供代理设置,仍然会创建cluster Proxy对象,但它将具有 nil spec

仅支持名为clusterProxy对象,并且无法创建其他代理。

将现有的 AWS 安全组应用于集群

将现有的 AWS 安全组应用于您的控制平面和计算机器可以帮助您满足组织的安全需求,尤其是在您需要控制这些机器的进出流量的情况下。

先决条件
  • 您已在 AWS 中创建了安全组。有关更多信息,请参阅 AWS 关于使用安全组的文档。

  • 安全组必须与您正在向其部署集群的现有 VPC 关联。安全组不能与其他 VPC 关联。

  • 您有一个现有的install-config.yaml文件。

步骤
  1. install-config.yaml文件中,编辑compute.platform.aws.additionalSecurityGroupIDs参数以指定计算机器的一个或多个自定义安全组。

  2. 编辑controlPlane.platform.aws.additionalSecurityGroupIDs参数以指定控制平面机器的一个或多个自定义安全组。

  3. 保存文件并在部署集群时引用它。

指定自定义安全组的install-config.yaml示例文件
# ...
compute:
- hyperthreading: Enabled
  name: worker
  platform:
    aws:
      additionalSecurityGroupIDs:
        - sg-1 (1)
        - sg-2
  replicas: 3
controlPlane:
  hyperthreading: Enabled
  name: master
  platform:
    aws:
      additionalSecurityGroupIDs:
        - sg-3
        - sg-4
  replicas: 3
platform:
  aws:
    region: us-east-1
    subnets: (2)
      - subnet-1
      - subnet-2
      - subnet-3
1 指定安全组的名称,其显示在 Amazon EC2 控制台中,包括sg前缀。
2 为集群使用的每个可用区指定子网。

存储在 kube-system 项目中管理员级密钥的替代方法

默认情况下,管理员密钥存储在kube-system项目中。如果您在install-config.yaml文件中将credentialsMode参数配置为Manual,则必须使用以下替代方法之一

手动创建长期凭据

在无法访问云身份和访问管理 (IAM) API 或管理员不想在集群kube-system命名空间中存储管理员级凭据密钥的环境中,可以在安装之前将云凭据操作员 (CCO) 置于手动模式。

步骤
  1. 如果您未在install-config.yaml配置文件中将credentialsMode参数设置为Manual,请修改该值,如下所示

    示例配置文件片段
    apiVersion: v1
    baseDomain: example.com
    credentialsMode: Manual
    # ...
  2. 如果您之前没有创建安装清单文件,请运行以下命令创建:

    $ openshift-install create manifests --dir <installation_directory>

    其中<installation_directory>是安装程序创建文件的目录。

  3. 通过运行以下命令,使用安装文件中的发行版镜像设置$RELEASE_IMAGE变量:

    $ RELEASE_IMAGE=$(./openshift-install version | awk '/release image/ {print $3}')
  4. 通过运行以下命令,从 OpenShift Container Platform 发行版镜像中提取CredentialsRequest自定义资源 (CR) 列表:

    $ oc adm release extract \
      --from=$RELEASE_IMAGE \
      --credentials-requests \
      --included \(1)
      --install-config=<path_to_directory_with_installation_configuration>/install-config.yaml \(2)
      --to=<path_to_directory_for_credentials_requests> (3)
    1 --included参数仅包含特定集群配置所需的清单。
    2 指定install-config.yaml文件的位置。
    3 指定要存储CredentialsRequest对象的目录的路径。如果指定的目录不存在,则此命令会创建它。

    此命令会为每个CredentialsRequest对象创建一个 YAML 文件。

    CredentialsRequest对象示例
    apiVersion: cloudcredential.openshift.io/v1
    kind: CredentialsRequest
    metadata:
      name: <component_credentials_request>
      namespace: openshift-cloud-credential-operator
      ...
    spec:
      providerSpec:
        apiVersion: cloudcredential.openshift.io/v1
        kind: AWSProviderSpec
        statementEntries:
        - effect: Allow
          action:
          - iam:GetUser
          - iam:GetUserPolicy
          - iam:ListAccessKeys
          resource: "*"
      ...
  5. 为之前生成的openshift-install清单目录中的密钥创建 YAML 文件。必须使用每个CredentialsRequest对象的spec.secretRef中定义的命名空间和密钥名称来存储密钥。

    包含密钥的CredentialsRequest对象示例
    apiVersion: cloudcredential.openshift.io/v1
    kind: CredentialsRequest
    metadata:
      name: <component_credentials_request>
      namespace: openshift-cloud-credential-operator
      ...
    spec:
      providerSpec:
        apiVersion: cloudcredential.openshift.io/v1
        kind: AWSProviderSpec
        statementEntries:
        - effect: Allow
          action:
          - s3:CreateBucket
          - s3:DeleteBucket
          resource: "*"
          ...
      secretRef:
        name: <component_secret>
        namespace: <component_namespace>
      ...
    Secret对象示例
    apiVersion: v1
    kind: Secret
    metadata:
      name: <component_secret>
      namespace: <component_namespace>
    data:
      aws_access_key_id: <base64_encoded_aws_access_key_id>
      aws_secret_access_key: <base64_encoded_aws_secret_access_key>

在升级使用手动维护的凭据的集群之前,必须确保 CCO 处于可升级状态。

配置 AWS 集群以使用短期凭据

要安装配置为使用 AWS 安全令牌服务 (STS) 的集群,必须配置 CCO 实用程序并为集群创建所需的 AWS 资源。

配置云凭据操作员实用程序

当云凭据操作员 (CCO) 在手动模式下运行时,要从集群外部创建和管理云凭据,请提取并准备 CCO 实用程序 (ccoctl) 二进制文件。

ccoctl实用程序是一个 Linux 二进制文件,必须在 Linux 环境中运行。

先决条件
  • 您可以访问具有集群管理员访问权限的 OpenShift Container Platform 帐户。

  • 您已安装 OpenShift CLI (oc)。

  • 您已为ccoctl实用程序创建了一个 AWS 帐户,并具有以下权限:

    所需的 AWS 权限

    所需的iam权限

    • iam:CreateOpenIDConnectProvider

    • iam:CreateRole

    • iam:DeleteOpenIDConnectProvider

    • iam:DeleteRole

    • iam:DeleteRolePolicy

    • iam:GetOpenIDConnectProvider

    • iam:GetRole

    • iam:GetUser

    • iam:ListOpenIDConnectProviders

    • iam:ListRolePolicies

    • iam:ListRoles

    • iam:PutRolePolicy

    • iam:TagOpenIDConnectProvider

    • iam:TagRole

    所需的s3权限

    • s3:CreateBucket

    • s3:DeleteBucket

    • s3:DeleteObject

    • s3:GetBucketAcl

    • s3:GetBucketTagging

    • s3:GetObject

    • s3:GetObjectAcl

    • s3:GetObjectTagging

    • s3:ListBucket

    • s3:PutBucketAcl

    • s3:PutBucketPolicy

    • s3:PutBucketPublicAccessBlock

    • s3:PutBucketTagging

    • s3:PutObject

    • s3:PutObjectAcl

    • s3:PutObjectTagging

    所需的cloudfront权限

    • cloudfront:ListCloudFrontOriginAccessIdentities

    • cloudfront:ListDistributions

    • cloudfront:ListTagsForResource

    如果您计划将 OIDC 配置存储在通过公共 CloudFront 分发 URL 由 IAM 身份提供商访问的私有 S3 存储桶中,则运行ccoctl实用程序的 AWS 帐户需要以下其他权限:

    具有 CloudFront 的私有 S3 存储桶的其他权限
    • cloudfront:CreateCloudFrontOriginAccessIdentity

    • cloudfront:CreateDistribution

    • cloudfront:DeleteCloudFrontOriginAccessIdentity

    • cloudfront:DeleteDistribution

    • cloudfront:GetCloudFrontOriginAccessIdentity

    • cloudfront:GetCloudFrontOriginAccessIdentityConfig

    • cloudfront:GetDistribution

    • cloudfront:TagResource

    • cloudfront:UpdateDistribution

    这些附加权限支持在使用ccoctl aws create-all命令处理凭据请求时使用--create-private-s3-bucket选项。

步骤
  1. 通过运行以下命令设置 OpenShift Container Platform 发行版镜像的变量:

    $ RELEASE_IMAGE=$(./openshift-install version | awk '/release image/ {print $3}')
  2. 通过运行以下命令从 OpenShift Container Platform 发行版镜像中获取 CCO 容器镜像:

    $ CCO_IMAGE=$(oc adm release info --image-for='cloud-credential-operator' $RELEASE_IMAGE -a ~/.pull-secret)

    确保$RELEASE_IMAGE的架构与您将使用ccoctl工具的环境的架构匹配。

  3. 通过运行以下命令从 OpenShift Container Platform 发行版镜像中的 CCO 容器镜像中提取ccoctl二进制文件:

    $ oc image extract $CCO_IMAGE \
      --file="/usr/bin/ccoctl.<rhel_version>" \(1)
      -a ~/.pull-secret
    1 对于<rhel_version>,请指定与主机使用的 Red Hat Enterprise Linux (RHEL) 版本相对应的值。如果未指定值,则默认使用ccoctl.rhel8。有效值为:
    • rhel8:对于使用 RHEL 8 的主机,请指定此值。

    • rhel9:对于使用 RHEL 9 的主机,请指定此值。

  4. 运行以下命令更改权限,使ccoctl可执行。

    $ chmod 775 ccoctl.<rhel_version>
验证
  • 要验证ccoctl是否已准备好使用,请显示帮助文件。运行命令时,请使用相对文件名,例如

    $ ./ccoctl.rhel9
    示例输出
    OpenShift credentials provisioning tool
    
    Usage:
      ccoctl [command]
    
    Available Commands:
      aws          Manage credentials objects for AWS cloud
      azure        Manage credentials objects for Azure
      gcp          Manage credentials objects for Google cloud
      help         Help about any command
      ibmcloud     Manage credentials objects for {ibm-cloud-title}
      nutanix      Manage credentials objects for Nutanix
    
    Flags:
      -h, --help   help for ccoctl
    
    Use "ccoctl [command] --help" for more information about a command.

使用云凭证操作员实用程序创建AWS资源

创建AWS资源时,您可以选择以下选项:

  • 您可以使用ccoctl aws create-all命令自动创建AWS资源。这是创建资源最快的方法。请参阅使用单个命令创建AWS资源

  • 如果您需要在修改AWS资源之前查看ccoctl工具创建的JSON文件,或者ccoctl工具用于自动创建AWS资源的过程不符合您组织的要求,则可以单独创建AWS资源。请参阅单独创建AWS资源

使用单个命令创建AWS资源

如果ccoctl工具用于自动创建AWS资源的过程符合您组织的要求,则可以使用ccoctl aws create-all命令自动创建AWS资源。

否则,您可以单独创建AWS资源。有关更多信息,请参阅“单独创建AWS资源”。

默认情况下,ccoctl在运行命令的目录中创建对象。要在不同的目录中创建对象,请使用--output-dir标志。此过程使用<path_to_ccoctl_output_dir>来引用此目录。

先决条件

您必须:

  • 解压并准备ccoctl二进制文件。

步骤
  1. 通过运行以下命令,使用安装文件中的发行版镜像设置$RELEASE_IMAGE变量:

    $ RELEASE_IMAGE=$(./openshift-install version | awk '/release image/ {print $3}')
  2. 运行以下命令从OpenShift Container Platform发行版镜像中提取CredentialsRequest对象的列表:

    $ oc adm release extract \
      --from=$RELEASE_IMAGE \
      --credentials-requests \
      --included \(1)
      --install-config=<path_to_directory_with_installation_configuration>/install-config.yaml \(2)
      --to=<path_to_directory_for_credentials_requests> (3)
    1 --included参数仅包含特定集群配置所需的清单。
    2 指定install-config.yaml文件的位置。
    3 指定要存储CredentialsRequest对象的目录的路径。如果指定的目录不存在,则此命令会创建它。

    此命令可能需要几分钟才能运行。

  3. 运行以下命令使用ccoctl工具处理所有CredentialsRequest对象:

    $ ccoctl aws create-all \
      --name=<name> \(1)
      --region=<aws_region> \(2)
      --credentials-requests-dir=<path_to_credentials_requests_directory> \(3)
      --output-dir=<path_to_ccoctl_output_dir> \(4)
      --create-private-s3-bucket (5)
    1 指定用于标记为跟踪而创建的任何云资源的名称。
    2 指定将创建云资源的AWS区域。
    3 指定包含组件CredentialsRequest对象文件的目录。
    4 可选:指定您希望ccoctl实用程序创建对象的目录。默认情况下,该实用程序在运行命令的目录中创建对象。
    5 可选:默认情况下,ccoctl实用程序将OpenID Connect (OIDC)配置文件存储在公共S3存储桶中,并使用S3 URL作为公共OIDC端点。要将OIDC配置存储在私有S3存储桶中,该存储桶由IAM身份提供程序通过公共CloudFront分发URL访问,请使用--create-private-s3-bucket参数。

    如果您的集群使用由TechPreviewNoUpgrade功能集启用的技术预览功能,则必须包含--enable-tech-preview参数。

验证
  • 要验证OpenShift Container Platform密钥是否已创建,请列出<path_to_ccoctl_output_dir>/manifests目录中的文件。

    $ ls <path_to_ccoctl_output_dir>/manifests
    示例输出
    cluster-authentication-02-config.yaml
    openshift-cloud-credential-operator-cloud-credential-operator-iam-ro-creds-credentials.yaml
    openshift-cloud-network-config-controller-cloud-credentials-credentials.yaml
    openshift-cluster-api-capa-manager-bootstrap-credentials-credentials.yaml
    openshift-cluster-csi-drivers-ebs-cloud-credentials-credentials.yaml
    openshift-image-registry-installer-cloud-credentials-credentials.yaml
    openshift-ingress-operator-cloud-credentials-credentials.yaml
    openshift-machine-api-aws-cloud-credentials-credentials.yaml

    您可以通过查询AWS来验证IAM角色是否已创建。有关更多信息,请参阅AWS关于列出IAM角色的文档。

单独创建AWS资源

您可以使用ccoctl工具单独创建AWS资源。此选项可能对在不同用户或部门之间共享创建这些资源责任的组织有用。

否则,您可以使用ccoctl aws create-all命令自动创建AWS资源。有关更多信息,请参阅“使用单个命令创建AWS资源”。

默认情况下,ccoctl在运行命令的目录中创建对象。要在不同的目录中创建对象,请使用--output-dir标志。此过程使用<path_to_ccoctl_output_dir>来引用此目录。

一些ccoctl命令会调用AWS API来创建或修改AWS资源。您可以使用--dry-run标志来避免调用API。使用此标志会在本地文件系统上创建JSON文件。您可以查看和修改JSON文件,然后使用带有--cli-input-json参数的AWS CLI工具应用它们。

先决条件
  • 解压并准备ccoctl二进制文件。

步骤
  1. 运行以下命令生成用于设置集群的OpenID Connect提供程序的公钥和私钥文件:

    $ ccoctl aws create-key-pair
    示例输出
    2021/04/13 11:01:02 Generating RSA keypair
    2021/04/13 11:01:03 Writing private key to /<path_to_ccoctl_output_dir>/serviceaccount-signer.private
    2021/04/13 11:01:03 Writing public key to /<path_to_ccoctl_output_dir>/serviceaccount-signer.public
    2021/04/13 11:01:03 Copying signing key for use by installer

    其中serviceaccount-signer.privateserviceaccount-signer.public是生成的密钥文件。

    此命令还会在/<path_to_ccoctl_output_dir>/tls/bound-service-account-signing-key.key中创建一个集群在安装过程中所需的私钥。

  2. 运行以下命令在AWS上创建一个OpenID Connect身份提供程序和S3存储桶:

    $ ccoctl aws create-identity-provider \
      --name=<name> \(1)
      --region=<aws_region> \(2)
      --public-key-file=<path_to_ccoctl_output_dir>/serviceaccount-signer.public (3)
    1 <name>是用于标记为跟踪而创建的任何云资源的名称。
    2 <aws-region>是将创建云资源的AWS区域。
    3 <path_to_ccoctl_output_dir>ccoctl aws create-key-pair命令生成的公钥文件的路径。
    示例输出
    2021/04/13 11:16:09 Bucket <name>-oidc created
    2021/04/13 11:16:10 OpenID Connect discovery document in the S3 bucket <name>-oidc at .well-known/openid-configuration updated
    2021/04/13 11:16:10 Reading public key
    2021/04/13 11:16:10 JSON web key set (JWKS) in the S3 bucket <name>-oidc at keys.json updated
    2021/04/13 11:16:18 Identity Provider created with ARN: arn:aws:iam::<aws_account_id>:oidc-provider/<name>-oidc.s3.<aws_region>.amazonaws.com

    其中openid-configuration是发现文档,keys.json是JSON Web密钥集文件。

    此命令还会在/<path_to_ccoctl_output_dir>/manifests/cluster-authentication-02-config.yaml中创建一个YAML配置文件。此文件设置集群生成的Service Account令牌的发行者URL字段,以便AWS IAM身份提供程序信任这些令牌。

  3. 为集群中的每个组件创建IAM角色。

    1. 通过运行以下命令,使用安装文件中的发行版镜像设置$RELEASE_IMAGE变量:

      $ RELEASE_IMAGE=$(./openshift-install version | awk '/release image/ {print $3}')
    2. 从OpenShift Container Platform发行版镜像中提取CredentialsRequest对象的列表。

      $ oc adm release extract \
        --from=$RELEASE_IMAGE \
        --credentials-requests \
        --included \(1)
        --install-config=<path_to_directory_with_installation_configuration>/install-config.yaml \(2)
        --to=<path_to_directory_for_credentials_requests> (3)
      1 --included参数仅包含特定集群配置所需的清单。
      2 指定install-config.yaml文件的位置。
      3 指定要存储CredentialsRequest对象的目录的路径。如果指定的目录不存在,则此命令会创建它。
    3. 运行以下命令使用ccoctl工具处理所有CredentialsRequest对象:

      $ ccoctl aws create-iam-roles \
        --name=<name> \
        --region=<aws_region> \
        --credentials-requests-dir=<path_to_credentials_requests_directory> \
        --identity-provider-arn=arn:aws:iam::<aws_account_id>:oidc-provider/<name>-oidc.s3.<aws_region>.amazonaws.com

      对于使用替代IAM API端点(例如GovCloud)的AWS环境,您还必须使用--region参数指定您的区域。

      如果您的集群使用由TechPreviewNoUpgrade功能集启用的技术预览功能,则必须包含--enable-tech-preview参数。

      对于每个CredentialsRequest对象,ccoctl都会创建一个IAM角色,该角色具有与指定的OIDC身份提供程序绑定的信任策略,以及在OpenShift Container Platform发行版镜像中的每个CredentialsRequest对象中定义的权限策略。

验证
  • 要验证OpenShift Container Platform密钥是否已创建,请列出<path_to_ccoctl_output_dir>/manifests目录中的文件。

    $ ls <path_to_ccoctl_output_dir>/manifests
    示例输出
    cluster-authentication-02-config.yaml
    openshift-cloud-credential-operator-cloud-credential-operator-iam-ro-creds-credentials.yaml
    openshift-cloud-network-config-controller-cloud-credentials-credentials.yaml
    openshift-cluster-api-capa-manager-bootstrap-credentials-credentials.yaml
    openshift-cluster-csi-drivers-ebs-cloud-credentials-credentials.yaml
    openshift-image-registry-installer-cloud-credentials-credentials.yaml
    openshift-ingress-operator-cloud-credentials-credentials.yaml
    openshift-machine-api-aws-cloud-credentials-credentials.yaml

    您可以通过查询AWS来验证IAM角色是否已创建。有关更多信息,请参阅AWS关于列出IAM角色的文档。

合并云凭证操作员实用程序清单

要实现为各个组件管理集群外部的短期安全凭据,您必须将云凭证操作员实用程序 (ccoctl) 创建的清单文件移动到安装程序的正确目录。

先决条件
  • 您已在托管集群的云平台上配置了一个帐户。

  • 您已配置云凭证操作员实用程序 (ccoctl)。

  • 您已使用ccoctl实用程序创建了集群所需的云提供商资源。

步骤
  1. 如果您未在install-config.yaml配置文件中将credentialsMode参数设置为Manual,请修改该值,如下所示

    示例配置文件片段
    apiVersion: v1
    baseDomain: example.com
    credentialsMode: Manual
    # ...
  2. 如果您之前没有创建安装清单文件,请运行以下命令创建:

    $ openshift-install create manifests --dir <installation_directory>

    其中<installation_directory>是安装程序创建文件的目录。

  3. 运行以下命令将ccoctl实用程序生成的清单复制到安装程序创建的manifests目录:

    $ cp /<path_to_ccoctl_output_dir>/manifests/* ./manifests/
  4. 将包含私钥的tls目录复制到安装目录。

    $ cp -a /<path_to_ccoctl_output_dir>/tls .

部署集群

您可以在兼容的云平台上安装OpenShift Container Platform。

您只能在初始安装期间运行安装程序的create cluster命令一次。

先决条件
  • 您已在托管集群的云平台上配置了一个帐户。

  • 您拥有OpenShift Container Platform安装程序和集群的pull secret。

  • 您已验证主机上的云提供商帐户具有部署集群的正确权限。权限不正确的帐户会导致安装过程失败,并显示一条显示缺少权限的错误消息。

步骤
  1. 更改到包含安装程序的目录并初始化集群部署:

    $ ./openshift-install create cluster --dir <installation_directory> \ (1)
        --log-level=info (2)
    
    1 对于<installation_directory>,请指定您自定义的./install-config.yaml文件的位置。
    2 要查看不同的安装详细信息,请指定warndebugerror而不是info
  2. 可选:从用于安装集群的IAM帐户中删除或禁用AdministratorAccess策略。

    只有在安装期间才需要AdministratorAccess策略提供的提升权限。

验证

集群部署成功后

  • 终端会显示访问集群的指示,包括指向 Web 控制台的链接以及kubeadmin用户的凭据。

  • 凭据信息也会输出到<安装目录>/.openshift_install.log

请勿删除安装程序或安装程序创建的文件。两者都是删除集群所必需的。

示例输出
...
INFO Install complete!
INFO To access the cluster as the system:admin user when using 'oc', run 'export KUBECONFIG=/home/myuser/install_dir/auth/kubeconfig'
INFO Access the OpenShift web-console here: https://console-openshift-console.apps.mycluster.example.com
INFO Login to the console with user: "kubeadmin", and password: "password"
INFO Time elapsed: 36m22s
  • 安装程序生成的 Ignition 配置文件包含在 24 小时后过期的证书,届时会自动续期。如果在证书续期前关闭集群,并在 24 小时后重新启动集群,则集群会自动恢复已过期的证书。例外情况是,您必须手动批准挂起的node-bootstrapper证书签名请求 (CSR) 以恢复 kubelet 证书。有关更多信息,请参阅从过期的控制平面证书中恢复文档。

  • 建议您在生成 Ignition 配置文件后 12 小时内使用,因为集群安装后 16 到 22 小时会进行 24 小时证书轮换。在 12 小时内使用 Ignition 配置文件,可以避免在安装过程中证书更新运行时安装失败。

使用 CLI 登录集群

您可以通过导出集群kubeconfig文件以默认系统用户身份登录集群。kubeconfig文件包含有关集群的信息,CLI 使用该信息将客户端连接到正确的集群和 API 服务器。该文件特定于一个集群,并在 OpenShift Container Platform 安装期间创建。

先决条件
  • 您已部署 OpenShift Container Platform 集群。

  • 您已安装oc CLI。

步骤
  1. 导出kubeadmin凭据

    $ export KUBECONFIG=<installation_directory>/auth/kubeconfig (1)
    1 对于<安装目录>,请指定您存储安装文件的目录的路径。
  2. 验证您可以使用导出的配置成功运行oc命令

    $ oc whoami
    示例输出
    system:admin

使用 Web 控制台登录集群

OpenShift Container Platform 安装完成后,默认情况下存在kubeadmin用户。您可以使用 OpenShift Container Platform Web 控制台以kubeadmin用户身份登录集群。

先决条件
  • 您可以访问安装主机。

  • 您已完成集群安装,并且所有集群 Operators 都可用。

步骤
  1. 从安装主机上的kubeadmin-password文件中获取kubeadmin用户的密码

    $ cat <installation_directory>/auth/kubeadmin-password

    或者,您可以从安装主机上的<安装目录>/.openshift_install.log日志文件中获取kubeadmin密码。

  2. 列出 OpenShift Container Platform Web 控制台路由

    $ oc get routes -n openshift-console | grep 'console-openshift'

    或者,您可以从安装主机上的<安装目录>/.openshift_install.log日志文件中获取 OpenShift Container Platform 路由。

    示例输出
    console     console-openshift-console.apps.<cluster_name>.<base_domain>            console     https   reencrypt/Redirect   None
  3. 在 Web 浏览器中导航到前面命令输出中详细说明的路由,并以kubeadmin用户身份登录。

其他资源

后续步骤