×

Red Hat OpenShift Lightspeed 的安装过程包含两个主要任务:配置大型语言模型 (LLM) 提供程序和安装 Lightspeed 运算符。

大型语言模型 (LLM) 配置概述

在安装 OpenShift Lightspeed 运算符之前,您应该配置将要使用的大型语言模型 (LLM) 提供程序。

关于 OpenAI 与 OpenShift Lightspeed 的配置

要将 OpenAI 配置为与 OpenShift Lightspeed 一起使用的 LLM 提供程序,您必须在配置过程中使用您的 OpenAI API 密钥或 OpenAI 项目名称。

OpenAI 服务具有项目和服务帐户的功能。您可以使用专用项目中的服务帐户,以便精确跟踪 OpenShift Lightspeed 的使用情况。

更多信息,请参见官方 OpenAI 产品文档

关于 Azure OpenAI 与 OpenShift Lightspeed 的配置

您需要一个 Microsoft Azure OpenAI 服务实例。该实例在 Microsoft Azure OpenAI Studio 中必须至少有一个模型部署。

更多信息,请参见官方 Microsoft Azure OpenAI 产品文档

关于 IBM WatsonX 与 OpenShift Lightspeed 的配置

您需要一个具有 IBM watsonx 访问权限的 IBM Cloud 项目。您还需要您的 IBM watsonx API 密钥。

更多信息,请参见官方 IBM watsonx 产品文档

安装 OpenShift Lightspeed 运算符

先决条件
  • 您已部署 OpenShift Container Platform 4.15 或更高版本。集群必须连接到互联网并启用遥测。

  • 您已以具有 `cluster-admin` 角色的用户身份登录到 OpenShift Container Platform Web 控制台。

  • 您可以访问 OpenShift CLI (oc)。

  • 您已成功配置大型语言模型 (LLM) 提供程序,以便 OpenShift Lightspeed 可以与其通信。

步骤
  1. 在 OpenShift Container Platform Web 控制台中,导航到**运算符** → **OperatorHub** 页面。

  2. 搜索 Lightspeed。

  3. 找到 Lightspeed 运算符,然后单击以选择它。

  4. 当出现讨论社区运算符的提示时,单击**继续**。

  5. 单击**安装**。

  6. 使用显示的默认安装设置,然后单击**安装**以继续。

  7. 单击**运算符** → **已安装的运算符** 以验证 Lightspeed 运算符是否已安装。“已成功”应出现在**状态**列中。