63
52

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【dataiku】非エンジニアがGUIツールでRAGを実装してみた

Last updated at Posted at 2025-02-09

1.本投稿の概要

1.1 目的・前置き

  • 本記事の目的
    • 自分の学びの整理&アウトプットするため。
    • 今後Dataikuを使用しようと思った人の役に立ちたいため。

今回初めてDataikuを使ったのですが、総合的にとても魅力的でした。
機会があればぜひ今後も使いたいと思っているのですが、
私は決してDataikuの関係者ではありません。

また、私の本業もエンジニアではありません。
Pythonを少しだけ触れる・基本情報を持っているくらいのITレベルで、今回興味本位でRAG作成に向けてのGUIツールを触ってみています。

そんな自分だからこそ今回できたことや学んだこと・難しかったことを書く価値があると思い、書いています。

image.png

鳥ちゃん。創造性と自発性を象徴するナイチンゲールらしいです。

1.2 本投稿で書いていること

  • Dataikuがどんなものかのざっくりした概要
  • 基本的なRAGを作成するまでの経緯(ノーコード+αの範囲)
  • 公式には書いていない小さな躓きポイント
  • 以上を踏まえた個人(非エンジニア)の感想

1.3 本投稿に書いていないこと

  • Dataikuの具体的なレシピの使用方法・コーディング
  • Dataikuを法人で活用する方法・RAG以外の活用方法
  • コンペで勝つ方法

1.4 使用したコンペ

以下のSIGNATEのコンペに参加した際にDataikuを使用しました。
本投稿でコンペ内容については詳しく取り扱いませんので、気になる方は以下をご覧ください。

以下、原文まま。

⚫︎課題
本コンペティションでは、J-LAKE(*パートナー企業であるDATAZORAのKIJIサービス提供データを含む)の情報を用いてRAGシステムを構築していただきます。提供されたデータを元に、質問(query.csv)に対する回答を生成し、その回答の精度を競います。 生成した回答は、指定のフォーマットに従い、投稿してください。

PDFデータと質問リストをいただくので、その質問リストにいかに正確に回答を与えられるかというコンペです。

今回私はコンペの入賞を狙ってチャレンジしたわけではないです(そもそもそんなレベルではない)が、
コンペ上位者のコードやブログはめちゃくちゃ楽しみです。私に理解できるかわかりませんが…。

2. 使用したGUIツール「Dataiku」について

2.1 概要

Dataikuとは、データサイエンスや機械学習モデルの開発を効率化するためのプラットフォームです。ノーコード/ローコードでデータの準備・可視化・モデリング・デプロイまでを一元的に管理でき、企業のデータ分析チームが協力して作業しやすいよう設計されています。


以下、公式ホームページ。フランスで設立された企業なんですね。

ダウンロードはこちらから。
インストール版とクラウド版がありますが、私はインストールしています。

Qiita公式アカウントもあります。生成AI活用関連の学びをたくさん投稿してくれています。

↓個人的にはこの投稿が好きでした。学生マインド忘れないようにしよう。

学生マインドの育成
この日の最も力強いテーマのひとつは、組織内で「学生マインドセット」を維持することの重要性といえるでしょう。AIが進化し続けるにつれて、AIに携わる人々も進化し続けなければなりません。AI分野で成功するためには、継続的な学習と新しいアイデアに対するオープンな姿勢が欠かせないのです。
このマインドセットとは、単に技術的な知識を習得することではなく、コラボレーション、柔軟性、誠実さの文化を醸成することです。リーダーはフィードバックを受け入れ、同僚や従業員、さらにはAIそのものから学ぶことで自分の視点を変えようとする姿勢が必要です。

2.2 主な機能

(1) GUIベースのデータ処理

SQLやPythonを使わなくても、データの前処理や変換が可能です。
もちろんシステムにこだわる程コーディングが必要になりますが、ざっくりとした流れだけであればノーコードで実行できます。
今回もテキストを文字にするOCRの工程はdataiku内の機能で行っています。
ここは今回めちゃくちゃいいなと思ったので、下でも記載します、

(2) 機械学習モデルの作成

ノーコード/ローコードで機械学習モデルをトレーニング・評価できます。
今回は言語タスクのなかでの生成AI活用だったので、こちらに機械学習モデルを使用した感はあまりありませんが、企業事例を見るとマーケや研究分野分野でもよく使われているようです。

(3) フロー・パイプライン管理

データ処理やモデル学習のフローを定義し、実行できます。
このフローをいじる感覚は直感的でわかりやすく、私にとってもとても楽しかったです。

(4) APIの接続

dataiku内の環境設定では、各種APIとの接続も簡単に行えます。
今回のコンペではMicrosoftのAzure OpenAIのAPIが一時的に付与されていたので、それを接続しました。ほかにもOpenAIやAWS、Snowflakesと接続ができるようです。

2.3 本コンペでdataikuを使用した理由

正直に言うとこれはツール云々ではなく、「サポートが手厚そうだったから」 です。

今回コンペ用のSlackチャンネルがあり、その中ではいろんな方がコンペの質問やRAG構築に関する相談を投稿しています。
最初に情報収集がてらざーっと見ていたのですが、dataikuの質問チャンネルがまあ平和で優しそうだなと言う印象がありました。そのほかにも色々と使用ツールとそれに応じたチャネルがあるのですが、決して他を批判しているわけではないです。主観です。

私は自分で1からRAGを作成するのは初めてだったので、GUIツールという点やノーコードでできる点にはもちろん惹かれましたが、サポート体制が手厚いことは決めてになる十分な魅力でした。

あくまでコンペ内の話ですし、もしかしたら担当の方が属人的にめちゃくちゃいい方だったという可能性もありますが、実際の製品導入の際のサポートも安心できるのではと思わされました。

3. 本コンペで作成したもの

3.1 完全ノーコードver

image.png

真ん中の「aI」部分がプロンプト作成やLLM機能を設定する箇所です。

  • query:コンペ指定の質問リスト
  • document_text:PDFデータをテキスト化したもの(OCR)
  • documents_text_embedded:テキストデータをベクトル化したKnowledge Bank
  • query_generated:質問リストqueryファイルとLLMによる回答をマージしたファイル
  • query_generated_prepared:コンペ提出に向けて整理したファイル

本当は質疑応答の感じも載せたいのですが、コンペのルールにどれくらい引っ掛かるのか読めないので、一旦今回はフローのみ共有します。

3.2 チャンク化をPythonで実行

image.png

OCR化した後、チャンク分割のみコードレシピで行い、後続のベクトルDB構築はビジュアルレシピを利用しています。黄色のフローがPython実行部分です。
今回のOCRした結果のテキストにはかなり大小差がありました。そのため、チャンクの長さやオーバーヘッドを手動で何度か実行しながら調整しました。
ちなみにコーディングは公式のコードとGPTを活用しながら書いています。

最終的に調整した結果が以下。

チャンク分割の実行
text_splitter = RecursiveCharacterTextSplitter(
    chunk_size=500,  # チャンクサイズ
    chunk_overlap=50,  # オーバーラップ
    length_function=len,
    separators=["\n\n", "\n", "。", "、", " ", ""]  
)
チャンク数に関する統計
総チャンク数: 2133

チャンクの長さの統計:
count    2133.000000
mean      836.610877
std       294.134557
min       300.000000
25%       676.000000
50%       913.000000
75%       968.000000
max      4426.000000
Name: chunk_length, dtype: float64
2133 rows successfully written (PFFdmZeYJM)

3.3 ハイブリッドサーチを利用

image.png

実はこちらのフローはエラーが消えず完成していないフローです。
本記事を書いている最中も色々試行錯誤しているのですが、先にコンペが終わってしまう気がしたので、一旦ここまでを成果として載せています。

BM25 リトリーバー(BM25 Retriever)という文書とクエリの関連度をスコアリングするアルゴリズムを用いて、「意味的な類似性」と「キーワードの一致」の両方を考慮することで精度をあげようとしていたのですが、現時点の私の知識では実装まで至りませんでした。悔しい。

Bm25 Retieverの作成
bm25_retriever = BM25Retriever.from_documents(documents)
bm25_retriever.search_kwargs["k"] = 5  # k を明示的に設定

with io.BytesIO() as buf:
    pickle.dump(bm25_retriever, buf)
    buf.seek(0)  # これを追加
    folder.upload_data("bm25result.pkl", buf.getvalue())

4. dataikuを使用した感想

4.1 感動したこと

(1) わかりやすいGUI

もうこれに尽きますね。

今回ここまで成功したり失敗したりと触って進めることができた要因は様々ありますが、とにかくGUIベースの設計がわかりやすいという点です。

例えば「document_text2」というファイル(PDFをOCR化したファイル)を選択すると、横にこのようなパネルが表示されます。
ここにdocument_text2にできる操作がだいたい揃っています。
今回私はLLMレシピやPythonを中心に選択していましたが、他にも回帰予測やクラスタリングなどの機械学習モデルの選択があります。Kaggleコンペもdaitaikuでチャレンジできる気がしますね。

image.png

もちろんコーディングが必要な場面は自ずと出てきますが、そこは役割分担かと思います。ただ同じことをCLIで行う場合、エンジニアと非エンジニア(もしくはバイヤーとベンダー)の境界はもっとはっきりしたものになってしまいます。
非エンジニアでもここまで設計の思考・アクションができることにより、それぞれの共同思考部分が増えるのは、組織にとってもいいことな気がします。

(2) プラグインが超優秀

上のように機械学習を実装するための基本的な操作はデフォルトで搭載されているのですが、さらにこの実装機能を拡張するためdataikuではプラグインやコードサンプルがたくさんあります。
インストールを行えば、上に書いているパネルにアクションが表示されるので、簡単に利用できます。

↓プラグインをインストールする画面。156個あるらしい。

image.png

↓個人的に次はこのへんをdataikuで使ってみたい。バージョン管理とか整合性取るのが少し難しくなるかもしれない。対策はあると思いますが。
image.png

今回のRAG作成では、「Text extraction and OCR」というプラグインを使用しています。
↓以下、公式ドキュメント。

例えば、以下のIPAが出しているPDFファイルを参考に記載してみます。

image.png
引用;https://www.ipa.go.jp/security/10threats/10threats2024.html

OCR結果

情報セキュリティ10大脅威とは
 IPAが2006年から毎年発行している資料
 前年に発生したセキュリティ事故や攻撃の状況等から
IPAが脅威候補を選出
 セキュリティ専門家や企業のシステム担当等から 
構成される10大脅威選考会が投票
 TOP10入りした脅威を10大脅威として 
脅威の概要被害事例対策方法等を解説
Copyright © 2024 独立行政法人情報処理推進機構
2
10大脅威の特徴
脅威に対して様々な立場の方が存在
 立場ごとに注意すべき脅威も異なるはず
 家庭等でパソコンやスマホを利用する人 個人
組織 
 企業や政府機関等の組織
 組織のシステム管理者や社員職員
個人組織の2つの立場で脅威を解説
Copyright © 2024 独立行政法人情報処理推進機構
3

と、こんな感じです。
もちろんこれだけでは上手く文章全体の構成まで読み取れていないため、ここからデータを処理する必要があるのですが、このようなプラグインが簡単に使用できます。

(3) 公式サンプルを参考にできる

以下のリンクを開いていただくとわかるのですが、dataikuには公式にサンプルフローがたくさん用意されています。
どんなプラグインやコーディングを使用しているかまで参考にできるため、似たようなモデルを探せばデータ構造を合わせるだけでフローを真似することができます。

↓サンプルリスト 

日本語対応のものもありますね。

image.png

今回、私は以下の「Advanced RAGフロー」をかなり参考にしました。RAGの基本構造はもちろんですが、精度を上げるためのハイブリッドサーチやプロンプトエンジニアリングのサンプルがあります。
私がコーディングに慣れていないため自分のデータと合わせることや環境設定に時間がかかりましたが、おそらく見るだけでも面白いです。

↓Advanced RAGサンプルフロー

そのなかでも特に参考にした「5.Hybrid search」のフロー

image.png

Pythonを開くとコードも照会できます。

image.png

4.2 難しかったこと・躓いたポイント

※ここで書いているのはかなり初歩的なミスや躓きだと思います。
だからこそあまり載っていないのですが…。

(1) 最初のPython環境設定

IT初心者の似た立場の方ならわかると思うのですが、何かをやろうとしてもそこまで辿り着けないという経験ありませんか?そもそも失敗ですらない的な…。

今回のdataikuでも私が1番時間を最初の環境設定かけたのはここかもしれません。
本来以下のようにスムーズにPython環境を構築できるのですが、Pythonが正しいバージョンではなかったり、正しいPATHにPythonが存在しないとエラーが起きます。

image.png

上の時点で「environment creation failed」とか「not available」と出る方はこの対象だと思います。
Pythonを使用可能なバージョンにアップグレード(ダウングレード)するだけならすぐ可能と思いますが、私はPythonのPATHが迷子になっておりその解消に大変苦労しました。dataikuもはや関係ないです。
以下記事に私のPythonPATH迷子エラーの解消方法をまとめているので、もし同じかもという方は役に立つかもしれません。

(2) 使用できないライブラリの対応

上に書いている通り、基本のRAGをノーコードで作成した後いくつかPythonでの手動の作成にも取り組んでいるのですが、まあエラーが多くありました…。
解消に向けたヒント表示などもないので、初心者にとっては少し難しかったです。
Colabやmacだったらインストールで済むところ、仮想環境のためどこで何が不足しているのかがいまいちわからないことも多くありました。

とりあえずコーディングのライブラリや環境周りのエラーですぐ確認できるのは、

  • 正しい環境を選び直す
  • パッケージを更新する
  • 環境を再構築する
    の3つかと思います。
    私は最初langchainが使えませんでしたが上記対応で解決しました。

↓右のパネルから「その他のアクション」>「Python Code Envを変更」から意図している環境で実行できているか確認しましょう。

image.png

↓ ナインドットの「Code Envs」画面にて、インストールされたパッケージを確認する。
なければパッケージの変更や再構築を実施してみます。

image.png

(3) 行き着くのは「Pythonの知識・技術」

最終的に行き着くのは結局この壁なんじゃないかと思います。
Python難しいですよね〜。私は難しいです。

コンペSLackでもdataikuでのRAG実装に向けて参加者からたくさん質問相談が出ていましたが、それもはやdataiku関係ないよなーという質問がたくさんありました。
強いて言えば、dataikuのライブラリや前後でファイル名を指定するなど、慣れている環境と異なる箇所も少々あると思います。しかし、どれだけPythonのコーディングに慣れているか、AI関連のライブラリを知っているか等でdataikuの活用範囲も大きく異なる気がします。

この辺は非エンジニアにとって痛いところですが、そんな私たちにとってはこの壁は一種のゴールでもあり、スタートでもあると思っています。
私もまだまだ未熟ですが、とりあえず手を動かす。そしてできることを1つずつ増やしていく。
この繰り返しかと思います

(補足するとR言語やSQLも使用できます)

5. まとめ

5.1 私から見える「dataikuはこんな方に使って欲しい!」

  • RAGを個人で作ってみたい
  • RAGの構築システムを勉強したい

すみません。法人での使い勝手やプロのエンジニアにとっての使い勝手は私にはわかりません。
今回私は自分のインプットのためかつ営利目的ではないため気楽に使用しましたが、
ただ同じような立場の方ってこの時代多いのではないでしょうか?
全然関係ない職種や業界の企業のなかでもアンテナを立てている方だったり、これから社会に出る学生さんだったり、上から言われて生成AIの導入を検討しなきゃいけない情シスの方だったり。

そんな方達にとってはdataikuは大変敷居の低いGUIツールになっていると思います。

もちろん「RAGとは何か」とか「どんなデータが検索されやすいのか」など、生成AIを活用する上でのある程度の知識は必要ですが、同時にやっていくうちにわかるものもあると思っています。

私が作成したRAGフローもdataikuを触ったことのない方は難しそうに見えるかもしれませんが、ほとんどは公式の説明を見ながら、見よう見まねで半日程度かけて作成したものです(そのうち半分は環境構築笑)。

少しでもかっこいいなとか触ってみたいと思ったらぜひチャレンジしてみてください。おそらくあなたでもできます。

ここまで書いていませんでしたが無料で使用できます。API接続をする場合そこでお金がかかりますが、無料の範囲でも十分学べること・健闘できることがあると思います。

おすすめの順番は、
「1.基本のRAG構築」→「2.データの整備」→「3.RAGの精度向上」
の順でチャレンジしてみることです。
まずどんなAI活用でもそうですが、データが綺麗であることに越したことはありません。OCR機能や前処理ができる機能も搭載していますが、ここはdataiku前でやるほうが現実的な気がします。
オブジェクトの除去や表の正規化などの前処理など事前に綺麗にできるものがあればしておきましょう。

5.2 今後やっていきたいこと

KaggleやSIGNATEの他のコンペでも使用してみたいですね!
特にビッグデータの定量分析や参照データが複数あるコンペなどには、楽に効率化を目指せそう。
Pythonの実行環境設定やライブラリの操作などはもう少し慣れが必要な気がするので、ノーコードでできることはノーコードで実施しつつ、甘えすぎずに、スコア向上の余地がありそうであれば積極的にコーディングを使っていきたいと思います

5.3 補足:今回のRAG作成で特に参考にしたサイト

(1) RAGを作るまでの基本 @fumihiko_kimura

今回のコンペ専用の手引書として投稿してくださっていますが、コンペ関係なくDataikuでLLMを作る時の基本として役に立つと思います。

(2) 基本のRAGができてから次に見るもの @TsuyoshiK7

RAGの精度を上げるためにコーディングを加えようとした場合、参考になると思います。

(3) 公式サンプル Advanced RAG

上でも書いていますが、大変参考にさせていただきました。
真似できるところがたくさんあります。

63
52
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
63
52

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?