はじめに
この記事では、”自分の企業内で、もし業務を支援してくれるAIがあったら”というシナリオを考えます。
世の中には、ChatGPTをはじめとする手軽に使えるパブリックなAIが多数存在します。
これらは非常に優れており、私たちの日常の活動に大きな変化をもたらしてくれています。
しかし、それらではなく自社で独自のAIシステムを持つことを訴求している企業は多数あり、私が所属するRed Hatもその一つです。
最終的にこの記事では、Red Hatの製品でAIを始めませんか? という流れになりますが、
前半から途中にかけてはベンダーに依存のない形で自社でAIを保有する理由を私の言葉や経験から説明しています。
Red Hatのプロダクトを使用するかどうかは一旦置いておいて、一般的な視点からAIインフラの保有について考えるための1つの読み物として楽しんでいただけると嬉しい限りです。
そもそも自社でAIの実行環境を持つ必要性から考えてみる
もしも自動車保険会社がAIを活用したらどうなるのか?という事例
次の投稿は、2024年10月に東京で開催されたRed Hat Summitに参加した時の投稿です。
本イベントのGeneral Sessionで披露されたAI活用のデモンストレーションの様子です。
Red Hat Summitに参加して、AI活用の可能性を改めて感じました。今回特に印象的だったのは、「プライベートAI」を使って、自社業務をどのように効率化できるかを示したデモでした。… pic.twitter.com/lGmIKodV30
— Yamato@Red Hat, Senior Instructor (@lab8010) October 17, 2024
架空の自動車保険会社Parasol社が、保険契約者様からの保険請求リクエストを対応する中でいくつかの課題があり、
それをAIを駆使して解決していくというショートストーリーです。
具体的には次のような課題が設定されていました。
- お問い合わせ件数が多すぎて、お待たせしてしまうことが多い
- 1件1件のお問い合わせに対し、過去の対応データを照合している時間が取れない
- 保険担当者によっても経験値が異なることから、検索能力、判断能力、コミュニケーション能力にばらつきがある
- 上記の次第のため、対応内容にばらつきが出てしまい、顧客満足度への影響が懸念される
もしみなさんが自動車事故を起こした側だとして、保険対応を受ける立場に立った場合、次のような不満を持つことになる可能性があります。
- 保険対応に時間がかかりすぎる
- 担当者によって回答の内容が違う
- 納得のいく説明をしていただけない
保険対応というシナリオ自体が題材としては、事故内容に依存して回答内容も変わってしまうという点では少し複雑ですが、少なくとも人間の対応者が対応することで様々な課題が生まれるわけです。
これらの課題を予測AIと生成AIの2種類を使用して解決していくというストーリーです。
AIを活用することによって上記の課題に対し次のような解決策を導くというストーリーです。
- 保険加入者から、自己現場の写真、事故の状況を説明した文面がメールで届く
- AIがその内容に基づき、事故の場所の特定、事故車両の特定及び被害額の算出、過去の類似例との照合
- 顧客の記述したメールの文面から感情分析を行い、返答に使用する予定のサンプルの文面を作成する
- AIによって、膨大に蓄積された過去の保険対応データからの対応であるため、対応品質の均一化が期待される
このように、人間が対応していたのでは時間を要するアクティビティを効率化してくれるところがAIの魅力だと言えます。
また、デモそのものを動画で確認したい場合は、次の動画の45:12から当該のデモが実演されますのでこちらも併せてご覧ください。
プライベートなAIを企業が所有する必要性
世の中には素晴らしいパブリックAIが多く存在します。
この記事の読者の中には、ChatGPTをはじめとするそうしたAIを活用したことがある人、している人も多いと思います。
この記事内では、AIの環境を2つの用語で定義して記事を記述していきます。
- パブリックなAI - ChatGPT/Copilot/Gemniなどのユーザー登録をすれば誰でも利用可能なインフラ提供者が構築した環境上で実行されるAIサービス
- プライベートなAI - 組織が保有するデータセンターの中で実行されるAI環境、利用者もインフラ管理者もその組織のユーザーであることを想定
上記の事を踏まえ、企業のコアビジネスのためにはプライベートなAIが良い理由を挙げてみます。
-
AIを自社に併せてチューニングできる
- つまり自社の特定業務に即した問いかけを行える
- 欲しい答えが得やすかったり、答えの精度が自社にあった形になりやすくなる
- パブリックなAIでは、提供されるAIのモデルの突発的な変更やサービス終了などの可能性がある
-
AIを教育する際に、自社内のインフラにあるデータを教育用として利用できる
- 基本的にビジネスで得たデータをパブリックな環境に置くことは個人情報保護や会社の資産を保護するなどの視点から好ましくありません.
- ソフトウェアならソースコード、食品ならレシピなど、門外不出な情報を誰もがアクセス可能な空間に置くことは企業の経営にも影響する可能性があります
-
プライベートなAIは基本的に社員などによる限定的なアクセス
- パブリックなAIは全世界から利用者がアクセスするため、利用状況の予測がつかない(パフォーマンス的な懸念)
- 必要に応じてAIインフラのメンテナンスを自社の都合で行うこともできる(ダウンタイムのコントロール)
このように、プライベートなインフラストラクチャでAI環境を持つことには多角的な利点があると考えられます。
一方で、この投稿を通じてパブリックなAIを否定しようとは思っておらず、上記のような検討事項がいらないような利用ケース(個人的な利用など)のためだけに自分でAI環境を用意するのは手間もかかるので、重要なのは使い分けだと言えます。
課題 AIを実行するITインフラとは?
上記の利点の列挙から「確かに自社のメインビジネスとAIを融合するにはプライベートな環境が必要だ」と思った矢先、「でも、AIが実行されるITインフラって、どんな製品?何を揃えれば良いの?」と新しい課題が現れます。
世の中には情報が溢れ、検索をしたとしても膨大な情報があるため自分に必要な情報がどれなのか、判断に時間を取られてしまう方も少なくありません。
この点について、インフラストラクチャの視点から紐解いて行こうと思います。
AIは『アプリケーション』そのものを強化してくれる要素と考えてみる
まず、この記事の冒頭であげた自動車保険会社におけるAIの活用例からもわかるように、
この例ではいくつかのアプリケーションが登場しています。(事故分析や事例検索、事故評価やメール文面作成など)
これらはアプリケーションであり、AIの力を借りることによって、よりアプリケーションが出力する価値を高めています。
つまり、AIのためのインフラ=アプリケーションを実行するためのインフラと読み替えても良いでしょう。
では、『アプリケーション』のためのインフラとは?
アプリケーションの実行箇所に関しても通常の仮想マシンまたはコンテナで実装することが多いので、
AIが有ろうがなかろうが、仮想化基盤またはKubernetes環境を使用することができると言えます。
つまり、ある程度のITインフラを所有している組織は、保有している現在のインフラをそのまま、または追加の要素を準備することでAI環境向けに使える可能性があると言えます。
※この記事においては、ITインフラを構成する各種要素の深掘りはしませんが、別の機会でそのような内容にも触れていきたいと思います。
では、本当に何も新しいものを実装しなくて良いかと言えば、AIが動作するレイヤーのためにいくつか準備が必要なものがあります。この記事ではほんの一部だけをご紹介します。
要素 | 説明 | 対応するオープンソースプロジェクトとURLの紹介 |
---|---|---|
推論サーバー | いわゆる「AIによる処理/推論をさせる」場所としての環境。仮想マシンやコンテナ上に構築され、KServeなどのサービング技術と組み合わさって機能する。 | KServe |
モデル | 推論サーバーに読み込ませる学習済みのAIモデル。推論処理の中核となる。 | Hugging Face Transformers、ONNX Model Zoo |
認証・認可 | 推論サーバーに対するアクセス制御を実施するための仕組み。OpenShiftではOAuthやRBACなどが利用される。 | Keycloak、Dex |
データサイエンスツール | モデルの開発・トレーニングを行うためのツール群。Jupyter Notebook や VS Code などが該当する。 | Jupyter、VS Code - OSS |
パイプライン機能 | データの前処理・フォーマット変換・推論後の可視化用加工など、推論前後の一連の処理を自動化するための仕組み。Kubeflow Pipelinesなどが該当。 | Kubeflow Pipelines |
監視機能 | 推論環境のリソース状況や推論処理の状態を可視化・監視するための仕組み。PrometheusやGrafanaなどが活用される。 | Prometheus、Grafana |
私自身もそうでしたが、物理的なITインフラを主体として業務を行ってきた方からすれば正直”一体何を言っているんだ...”と思う人も一定数いるでしょう。
1つ1つの要素は、オープンソースで提供されているものが多数存在するため、要素を理解し、その中で自組織に対して適切なものを選択したり、設計、構築、さらにそれを取り扱える人材を揃えるなど様々なチャレンジがあるとも言えます。
そこで、そうした課題を一度に解決する方法としてRed Hatが提供するAI関連製品をこの記事ではご紹介させていただきます。
Red Hatが提供するAI関連製品
Red Hatでは、Red Hat AIというブランドでRed Hatの製品とAIを統合したソリューションを提供しています。
Red Hat AI - Red Hat公式ページ
特にこの記事では、Red Hat OpenShift AIについて軽く触れたいと思いますが、
当該製品を使用すると、一度に商用環境で必要となる主要な要素が提供されるという所がわかりやすい特徴の1つだと言えます。
Red Hatは、商用環境での豊富な利用実績を持つRed Hat Enterprise Linuxで広く知られているように、本来コミュニティによってサポートされているオープンソースソフトウェアに対して、安心して安定的に使用できるよう、独自のパッチやアップデートの提供、関連するオープンソースプロジェクトへのフィードバックや調整の働きかけなど、さまざまな取り組みを行っています。
これらの取り組みによる成果物は「サブスクリプション」という形でまとめられ、サブスクリプションユーザーの皆様に提供されています。
こうしたノウハウは、AIインフラストラクチャの分野にも活かされています。AI推論に必要となる各種要素をひとまとめにして提供しているのが、OpenShift AI であるとご理解いただければと思います。
もちろん、オープンソースの各種プロジェクトについて十分な知識をお持ちの方であれば、Red Hatが提供するOpenShift AIを活用せずとも、ご自身で情報を集め、同等またはそれ以上のAI推論インフラを構築することも可能でしょう。
要するに、情報収集から環境の構築、運用までをRed Hatのサポートとともに進めたい方には、Red Hatのソリューションが最適です。一方で、すべてを自分たちの力で行いたいと考える方は、各種オープンソースプロジェクトが提供するツールや製品を組み合わせて構築する選択肢もあります。
言い換えれば、Red Hatのソリューションは、必要な材料や工具をひとまとめに提供し、組み立てのサポートも受けられるキットのようなものです。それに対して、オープンソースのみで進める場合は、すべての部品やツールを自分で選び、ゼロからDIYで組み立てていくイメージです。
Red Hatが提供するAIエンジニアのための学習教材
Red Hatでは2025年4月現在、AIに関連する学習のための教材や認定資格を提供しています。
こちらに示しているのはRed Hatが提供しているAIに関連する認定資格です。

左と真ん中のものについては2025年4月時点では無償で提供されるオンデマンドラーニングを受講することで取得できるものです。詳しくは以下の記事を参照ください。
右のものについては指定されたRed Hat認定資格試験に合格をした際に得られる認定資格です。
上記の2つが初級者向けだとした場合は、それ以上のレベルのものとなります。
この試験に対応するトレーニングも提供されていますが、受講をしなくとも試験の合格だけでも認定を得ることはできます。
ぜひこの機会に受験もご検討されてみてはいかがでしょうか?
関連URL