初めに
2025年6月現在、RedHatから下記のLightspeed(LLMを使用したAIアシスタント機能)が提供されています。
・Ansible Lightspedd
・Red Hat Enterprise Linux Lightspeed
・OpenShift Lightspeed
その中で、本記事ではLightspeedについて紹介します。
1. Openshift Lightspeed でできること
1-1.チャットによる質問回答
OpenShiftやその関連コンポーネント(OpenShift Virtualization、GitOps、Pipelinesなど)に関する質問に自然言語で答えてくます。
以下の例では、「What is Openshift imagestream used for ?」と質問をし、LLMで生成された結果を表示しています。
1-2. リソースをコンテキストに追加しての質問回答
Deployment、Pod、Service、Alertなどの詳細画面から直接チャットボットにリソース情報を追加して質問できます。
以下の例では、「AlertmanagerRecieversNotCponfigured」アラートをコンテキストに追加して、質問した結果を
表示しています。
2. 導入手順
2.1. LLM環境の用意
Openshift Lightspeedでは、以下のLLM Providerを使用することができます。
・RHEL AI
・Openshift AI
・IBM watsonx.ai
・OpenAI
・Azure OpenAI
この記事では、watsonx.aiを使用することとします。IBM Cloud上でのwatsonx.aiのサービスのデプロイ手順は省略しますが、後ほど、watsonx.aiのサービスをデプロイしたIBM CloudのAPIキー、watsonx.aiで作成したProjectIDが必要になりますので、控えておきます。
2.2. Lightspeed Operatorの導入
OpenShiftのWebコンソールのOperatorから「OpenShift LightSpeed Operator」をクリックし、画面に従い
Operatorを導入します。
2.3. watsonx.aiに接続するためのAPIキーのsecretの作成
以下の内容でsecretを作成します。
apiVersion: v1
data:
apitoken: <bese64 encoded your_api_token>
kind: Secret
metadata:
name: watsonx-api-keys
namespace: openshift-lightspeed
type: Opaque
2.4. OLSConfigの作成
LLMサービス(プロバイダー)の情報と使用するモデルを指定した、OLSConfigというカスタマーリソースを作成します。
以下の内容で、OLSConfigを作成します。
apiVersion: ols.openshift.io/v1alpha1
kind: OLSConfig
metadata:
name: cluster
spec:
llm:
providers:
- credentialsSecretRef:
name: watsonx-api-keys
models:
- name: ibm/granite-3-8b-instruct
name: myWatsonx
type: watsonx
ch url: 'https://jp-tok.ml.cloud.ibm.com'
projectID: <your project id>
ols:
defaultModel: ibm/granite-3-8b-instruct
defaultProvider: myWatsonx
2.5. チャットボットの起動
OpenShift Web Consoleの右下に、チャットボットのアイコンが表示されるので、
クリックすると、チャットボットの画面が出てきます。