Red Hat OpenShift Lightspeed 的安装过程包含两个主要任务:配置大型语言模型 (LLM) 提供程序和安装 Lightspeed 运算符。
在安装 OpenShift Lightspeed 运算符之前,您应该配置将要使用的大型语言模型 (LLM) 提供程序。
要将 OpenAI 配置为与 OpenShift Lightspeed 一起使用的 LLM 提供程序,您必须在配置过程中使用您的 OpenAI API 密钥或 OpenAI 项目名称。
OpenAI 服务具有项目和服务帐户的功能。您可以使用专用项目中的服务帐户,以便精确跟踪 OpenShift Lightspeed 的使用情况。
更多信息,请参见官方 OpenAI 产品文档。
您需要一个 Microsoft Azure OpenAI 服务实例。该实例在 Microsoft Azure OpenAI Studio 中必须至少有一个模型部署。
更多信息,请参见官方 Microsoft Azure OpenAI 产品文档。
您需要一个具有 IBM watsonx 访问权限的 IBM Cloud 项目。您还需要您的 IBM watsonx API 密钥。
更多信息,请参见官方 IBM watsonx 产品文档。
您已部署 OpenShift Container Platform 4.15 或更高版本。集群必须连接到互联网并启用遥测。
您已以具有 `cluster-admin` 角色的用户身份登录到 OpenShift Container Platform Web 控制台。
您可以访问 OpenShift CLI (oc)。
您已成功配置大型语言模型 (LLM) 提供程序,以便 OpenShift Lightspeed 可以与其通信。
在 OpenShift Container Platform Web 控制台中,导航到**运算符** → **OperatorHub** 页面。
搜索 Lightspeed。
找到 Lightspeed 运算符,然后单击以选择它。
当出现讨论社区运算符的提示时,单击**继续**。
单击**安装**。
使用显示的默认安装设置,然后单击**安装**以继续。
单击**运算符** → **已安装的运算符** 以验证 Lightspeed 运算符是否已安装。“已成功”应出现在**状态**列中。