LoginSignup
3
1

こちらのイベントで話した内容です。

資料のPDFはこちら。

今回の内容に関係するガバナンスのウェビナーを11月17日に開催します。講師は私です。

会社紹介。
Screenshot 2023-10-28 at 15.40.31.png

MLOpsとは

MLOpsとは機械学習モデルライフサイクル全般を円滑にするために必要な体制・基盤・手法全般を意味します。

MLOps(Machine Learning Operations)とは、データサイエンスチーム、運用チームなど、機械学習モデルの構築・運用に関わるチームが協調し、円滑に機械学習モデルを運用していくための体制・基盤を構築すること、その概念全般を意味します。

LLMOpsはこの考え方をLLMに拡張したものです。

LLMOps(Large Language Model Operations)とは、データサイエンスチーム、運用チームなど、LLMの構築・運用に関わるチームが協調し、円滑にLLMを運用していくための体制・基盤を構築すること、その概念全般を意味します。

MLOpsはLLMで何が変わるのでしょうか?

LLMの特性 MLOpsの示唆
様々な形態でLLMを利用可能:
  • 課金API経由での一般的なプロプライエタリモデル、OSSモデル
  • すぐに利用できるオープンソースモデル
  • 特定のアプリケーションにファインチューンされたカスタムモデル
  • カスタムの事前トレーニング済みモデル
    開発プロセス:
    • インクリメンタルな開発
    • APIからスタートしカスタムモデルへ
      LLMは入力として自然言語のプロンプトを受け入れ:
      • 期待するレスポンスを得るためにプロンプトエンジニアリングが可能
      開発プロセス:
      • LLMに問い合わせを行うテストテンプレートの設計が開発プロセスの重要な一部に
      アーティファクトのパッケージング:
      • パッケージングされるアーティファクトとプロダクションにおけるプロンプトはモデルというよりパイプラインに
      LLMにはサンプルやコンテキストを伴うプロンプトを指定可能 サービングのインフラストラクチャ:
      • 適切なコンテキストの検索に使用されるベクトルデータベースのような外部ツール
      サードパーティのAPIプロバイダー経由でプロプライエタリモデルやOSSモデルを利用可能 APIガバナンス:
      • APIプロバイダーをスイッチできる選択可能性や柔軟性を持つために、APIガバナンスのための集中管理されたシステムを持つことが重要に
      LLMは非常に大きなディープラーニングモデルであり、多くの場合、数Gバイトから数百Gバイトに サービングのインフラストラクチャ:
      • LLMのサービングにはGPUが必要
      • モデルを動的にロードする必要がある場合には、高速なストレージが重要に
      LLMにおいては、多くの場合、単一の「適切な」回答が存在しないため、従来のMLメトリクスを通じた評価が困難 人間のフィードバック:
      • LLMの評価、テストで必要になることが多い
      • 将来的なファインチューニングのためには、テスト、モニタリングを含むMLOpsに直接組み込むことが重要に

      これらの新たな要件に適合するために、多くの既存ツール、既存プロセスの修正は軽微です

      • 開発、ステージング、プロダクションの分離は変わりません
      • パイプラインやモデルをプロダクションに移行する際に、Gitのバージョン管理とUnity CatalogにおけるMLflowモデルレジストリは依然として主要なパイプラインとなります。
      • データ管理に対するレイクハウスアーキテクチャは、効率性のために依然として適切で重要です。
      • 既存のCI/CDインフラストラクチャには変更はありません。
      • モデルトレーニングのためのパイプライン、モデル推論のためのパイプラインなどを用いた、
      • モジュール化されたMLOpsの構造は同じです。

      Screenshot 2023-10-28 at 15.49.20.png

      Lakehouse AI

      AIライフサイクルにおけるサイロ化の課題はLLMでも同様です。データセットの準備からモデルの開発、アプリケーションのデプロイメントでシステムがサイロ化していると効率は上がらず、エラーが混入します。
      Screenshot 2023-10-28 at 15.49.56.png

      • モデル開発に必要なクリーンで信頼できるデータの取得が困難
      • インテグレーション欠如による開発の遅延
      • 完全なAIライフサイクルを制御、管理、追跡できないことによるリスクの増加

      これらの課題を解決するために、我々はデータ中心アプローチのLakehouse AIを提供します。
      Screenshot 2023-10-28 at 15.52.00.png

      • データプラットフォーム(レイクハウス)上に構築
      • 高速なデプロイメント
      • ビルトインのガバナンスとモニタリング

      Lakehouse AIのコンポーネント

      Screenshot 2023-10-28 at 15.52.45.png

      Unity Catalogにおける特徴量エンジニアリング

      • 特徴量の効率的かつ高信頼な作成、管理、提供
      • Unity Catalogのテーブルをトレーニングやサービングにおけるソースとして活用可能
      • レイクハウスのDeltaテーブルに基づいて継続的に更新
      • モデルサービングや外部エンドポイントを使用しているアプリにオンデマンドのサービング

      ベクトル検索(Vector Search)

      • Unity Catalogのデータから自動更新されるベクトル検索インデックスの作成
      • ビルトインのガバナンス、権限管理、リネージ
      • フルマネージド、サーバレス、すぐに利用可能
      • エンベディング生成においてMLflowやモデルサービングとインテグレーション

      MosaicML

      • 大規模AIモデルのトレーニングを最大7倍高速、安価に
      • 簡素化され、スケーラブルでコスト効率の高い大規模AIモデルのトレーニング
      • ご自身のセキュアな環境で自分のデータを用いて、自分の生成AIモデルをトレーニングあるいはファインチューニング
      • モデルとデータプライバシーに対する完全なコントロール

      AutoML

      • エンベディングのファインチューニングやモデル作成のためのローコードツール

      Screenshot 2023-10-28 at 15.55.11.png

      MLflow

      • エンドツーエンドのMLOpsとLLMOps
      • 月間1,100万ダウンロードのMLOpsのスタンダード
      • モデルの実験、追跡、評価、管理
      • 権限管理やガバナンスを自動化するためのAI GatewayのようなLLMOpsの新機能

      Screenshot 2023-10-28 at 15.55.53.png

      モデルサービング

      • 最大10倍のレーテンシー削減、コスト削減を提供するモデルのリアルタイム推論
      • 高可用性、低レーテンシー、ゼロまで自動スケールするサービング
      • デプロイメントを自動化し、エラーを削減するための、自動特徴量検索、監視、統合ガバナンス
      • 最大10倍のレーテンシー、コスト削減を実現するオープンソース生成AIモデルに最適化

      レイクハウスモニタリング

      • インテリジェントなデータとモデルのモニタリング
      • 数分でデータとモデルに対する完全な可視性を提供し、市場投入に要する時間とコストを削減
      • データとモデルの異常をプロアクティブかつシンプルに検知
      • 異常の根本原因を追跡することでシームレスにデバッグ

      Databricksクイックスタートガイド

      Databricksクイックスタートガイド

      Databricks無料トライアル

      Databricks無料トライアル

      3
      1
      0

      Register as a new user and use Qiita more conveniently

      1. You get articles that match your needs
      2. You can efficiently read back useful information
      3. You can use dark theme
      What you can do with signing up
      3
      1