以前にXserverでDifyをホスティングしてみましたが、
他にも、クラウドサーバー上で自前のAIアプリケーションを作成できないかと思い、まずはリサーチから。
オープンソースでセルフホスティング可能な注目のツールをまとめました。
※この記事の内容は、筆者が軽く調べてみた範囲でまとめたものです。難易度や制約、詳細な技術要件などは今後さらに検証が必要ですので、その点をご理解いただければと思います。
筆者自身はコーディング初心者のため、まずはノーコードやローコードで扱えるツールを探している。という前提です。
1. Dify.AI
- URL: https://dify.ai/
- 概要: ノーコードでAIアプリケーションを開発可能なオープンソースプラットフォーム。
-
特徴:
- ドラッグ&ドロップ式の直感的UI
- Dockerでの簡単なセルフホスティング
- OpenAI、Anthropic、Llama などの各種LLMと統合
2. LangChain
- URL: https://www.langchain.com/
- 概要: LLMアプリケーション構築のための本格的なフレームワーク。
-
特徴:
- Python/JSで開発可能なモジュール式構造
- 自前サーバーでのホスティングに対応
- 外部ツールとの統合が柔軟
3. LlamaIndex(旧GPT Index)
- URL: https://docs.llamaindex.ai/en/stable/
- 概要: データソースをナレッジベースとしてLLMに活用するためのフレームワーク。
-
特徴:
- PDFやDBなど多様なデータとの接続に対応
- LangChainなど他ツールと組み合わせて使用可能
- 自前インフラでの運用にも対応
4. Flowise
- URL: https://flowiseai.com/
- 概要: LangChainベースのフロービルダー。
-
特徴:
- ノーコード感覚でLLMワークフローを構築
- UIからコンポーネント接続して設計可能
- Dockerによるデプロイに対応
5. LocalAI
- URL: https://localai.io/
- 概要: ローカルでOpenAI互換のAPIを実現するエンジン。
-
特徴:
- Llama、Stable Diffusion等に対応
- OpenAI APIと互換性があるため既存アプリの移植が容易
- 軽量で自前GPUで動作可能
6. Haystack by Deepset
- URL: https://haystack.deepset.ai/
- 概要: 検索・質問応答システム構築に特化したLLMフレームワーク。
-
特徴:
- RAG(検索+生成)ベースの構成が可能
- Web UIやFastAPIベースのAPIを提供
- セルフホスト構成に対応
7. LangFlow
- URL: https://www.langflow.org/
- 概要: LangChainのノードベースUI。
-
特徴:
- フロー形式でLLMアプリを視覚的に構築
- Dockerによるローカルデプロイに対応
- 軽量で試作に最適
8. Rasa Open Source(旧Bothub.ai)
- URL: https://opensource.rasa.com/
- 概要: オープンソースの会話AI開発プラットフォーム。
-
特徴:
- 独自サーバー上でのホスティングに対応
- 高度なNLUとコンテキスト処理
- チャットボット構築に特化
🔚 まとめ
- 簡単に使いたい → Dify.AI、Flowise
- 高度にカスタマイズしたい → LangChain、LlamaIndex
- ナレッジ検索やQAに特化 → Haystack
- ローカル実行重視 → LocalAI
- UIで視覚的に設計したい → LangFlow
- チャットボット開発に強い → Rasa
視覚的にできるのは、LangFlowだからまずはこのあたりをみてみようかな。