はじめに
最近いろいろなところで「AI Agent」というワードをよく見かけるようになりましたが、
正直なところ「結局、何ができるの?」というのが個人的な状態でした。
2025年以降は、デジタル労働力としてAIを活用していく時代になると言われています。
システムとAIが組み合わさることで、自然言語で業務内容をあらかじめ表現ができておけば、最短の手順を提案してくれたり、実際に処理まで行ってくれるようになるらしく、時代は、すげーなーと感じています。
A,B,Cなどの複数業務を手順や目的を含めて定義していた場合、今後のAI搭載のシステムは
「A~Cを統合しました。アルティメットギョウム:〇〇を実行しますか?」みたいに聞いてくると思います。転生したスライムがよく使ってるやつみたいですね。
なので自社の業務経験値が豊富な社員もいらず、フローを変える際の社内の根回し文化もなくなり、合理的に業務を改善していけるのだろうと感じています。
そういったことから、自分なりに理解しておいたほうが良さそうだと感じたので、調べた内容をまとめて記事にしてみました。
※本記事は 2025年12月時点の情報をもとに書いています。
もし内容が更新されていたり、要約に誤りがあればご容赦ください。
AI Agentとは何か
AI Agent(エーアイ・エージェント)とは、
与えられた目的に対して、AIが自律的に判断し、行動する仕組みのことです。
単に質問に答えるだけのAI(いわゆるチャットAI)とは異なり、
AI Agentは「考える」だけでなく「行動する」ことを前提に設計されています。
筆者はドラえもんをイメージしています。
困ったときに最適なツールを選定して実行してくれたり、行動してくれたりします。
現実的には、AWS や Oracle などの主要なプラットフォームでも、
データベースとAIを連携させたデータ処理や、よりユーザーライクなシステムが
一般的になっていくと考えられています。
例えば、
「〇〇不動産の請求書を出して」と聞けばSQLを書かなくてもAIがデータを抽出してくれたり、
「今月の売れ筋を出して」と聞くだけで、必要なデータを返してくれるような世界です。
少し話がそれましたが、
UiPathにおけるAI Agentもこれに近い立ち位置で、
自然言語で与えられた指示をもとに、どのツールを実行するか、
あるいはどの情報を参照するかを判断してくれる存在になります。
AI Agentのライセンスについて
UiPathでAI Agentを使うにあたって、ライセンスについても簡単に触れておきます。
結論から書くと、ほとんどのライセンスで作成は可能です。下記参照(2025/12月時点)

Agent Units(エージェントユニット)
AI Agentの実行には、Agent Units という消費ベースの単位が使われます。
以下のような処理でAgent Unitsが消費されます。
注意点
- Agent Unitsは無制限ではない
- 実行内容によっては他ライセンスも必要になる
詳細や最新情報については、必ず公式ドキュメントを確認してください。
出典:https://docs.uipath.com/ja/agents/automation-cloud/latest/user-guide/licensing
エージェントの種類:自立型と会話型
UiPathのAI Agentには、主に2種類あります。
まずは公式ドキュメントの説明を引用します。
会話型エージェント
会話型エージェントは新たな種類の UiPath エージェントであり、
ユーザーと複数のターンでリアルタイムかつ動的に対話するように設計されています。単一のプロンプトに応答する自律型エージェントとは異なり、
会話型エージェントはユーザーメッセージの連続的なストリームを解釈して応答します。会話のコンテキスト、ツールの実行、人間へのエスカレーション、メモリを管理することで、
より豊かで適応性の高いオートメーション体験を実現します。会話型エージェントとは、コンテキストを理解し、
曖昧さを自然に処理するインテリジェントなデジタルアシスタントです。出典: UiPath公式ドキュメント
https://docs.uipath.com/ja/agents/automation-cloud/latest/user-guide/conversational-agents
公式の説明を見る限り、
複数回のやり取りを通じて問題を解決していくタイプのエージェント
という理解で良さそうです。
自立型エージェント
エージェンティックAIは、データを分析し、目標を設定し、
それを達成するために行動することができる
新しいタイプの自律型エージェントを実現します。これらのエージェントは、ルールベースではない意思決定を行い、
人の介入を最小限に抑えながら、
状況に応じて自律的に行動します。出典: UiPath公式サイト(エージェンティックAI)
https://www.uipath.com/ja/ai/agentic-ai
ドキュメントを探してみましたが、
UiPath公式では「自立型エージェント」という
明確な製品カテゴリ名は見つかりませんでした。
一方で、「エージェンティックAI」として
目標を与えると自律的に行動するエージェントの概念が説明されています。
なのでこれが「自立型エージェント」かと思います。
感覚的には、
1つの問い合わせや入力に対して、1つの答えやアクションを返す
ようなエージェントをイメージしています。
UiPathにおけるAI Agentの作り方(パラメーター解説)
AI Agentで設定する5つのパラメーター
UiPathのAI Agentでは、主に以下の5つのパラメーターを設定します。
- システムプロンプト(必須)
- ユーザープロンプト(必須)
- ツール
- コンテキスト
- エスカレーション
最初は名前だけ見ると分かりづらいですが、
役割自体はそこまで難しくありません。
以下は、公式ドキュメントを踏まえた上での自分なりの理解です。
システムプロンプト
公式(抜粋):
システム プロンプトでは、エージェントの役割、目標、制約を自然言語で記述できます。
https://docs.uipath.com/ja/agents/automation-cloud/latest/user-guide/agent-prompts
要約:
AI Agentの役割や目的、振る舞いを指定します。
「あなたは何者で、何をすべきか」を最初に教えるイメージです。
例えば、「21世紀の過去に戻ってのび太くんを助けてあげてください。」とかかな。
ユーザープロンプト
公式(抜粋):
ユーザー プロンプトでは、入力と引数をエージェントに渡す方法を構成できます。
https://docs.uipath.com/ja/agents/automation-cloud/latest/user-guide/agent-prompts
要約:
ユーザーがAIに問いかける内容や、その入力フォーマットを指定します。
実際にAIが処理する入力データにあたる部分です。
例えば「ドラえも~ん、ジャイアンにやられちゃったよー」とかです。
ツール
公式(抜粋):
ツールとは、エージェントの推論と計画をアクションに変える方法です。
https://docs.uipath.com/ja/agents/automation-cloud/latest/user-guide/agent-tools
要約:
AI Agentが使ってよいツールやアクションを指定します。
メール送信、Web操作、UiPathのワークフロー実行などが該当します。
AIは考えるだけでなく、 ここで指定したツールを使って実際の処理を行います。
ドラえもんでいうと四次元ポケットです。
コンテキスト
公式(抜粋):
エージェントは権限を持つナレッジ ベースにアクセスできるようになります。
https://docs.uipath.com/ja/agents/automation-cloud/latest/user-guide/agent-contexts
要約:
AIが判断する際に参照してよい情報を指定します。
マニュアルやルール一覧などを渡すイメージです。
ここを設定しておくと、AIが内容を確認して回答をします。
例えば旅館の予約リスト、注文リスト、回答マニュアルなど設定しておくと、内容を見つけてシステムプロンプトの指定に沿って回答します。
ドラえもんでいえば、四次元ポケットの中身をリスト化してきっと参照しているでしょう。
エスカレーション
公式(抜粋):
問題が発生した場合に、人間によるサポートを依頼する方法をエージェントに提供できます。
https://docs.uipath.com/ja/agents/automation-cloud/latest/user-guide/agent-escalations-and-agent-memory
要約:
AIが判断に迷った場合や、対応が難しいと判断した場合に 人へ引き継ぐための設定です。
すべてをAIに任せるのではなく、
「人に引き継ぐライン」を決めておくための重要なポイントです。
「ヒューマンインザループ」という言葉も今後流行ってきます。AIのエスカレーションをヒューマンが解決するというループ構造です。
ドラえもんでいうと22世紀のセワシ君にあたるかな。
エージェントの作成手順(画面操作)
Web版のOrchestratorにあるStudio画面からエージェントを作成します。
操作の流れ
- Orchestrator
- Studio
- 新規作成
- エージェント
エージェント作成画面では、Autopilotが前面に表示されます。

今回は例として、以下のような内容を入力してみます。
コンテキストに記載の情報から曲名を当ててほしい。
もし分からなければ、ツールのWeb検索を使って曲名を当ててほしい。
入力したら、「エージェントを作成」を押します。
そうするとAutopilotがエージェントの内容を解析し、
先ほど説明したプロンプトなどの各パラメーターを自動で考えてくれます。
「提案を確認」を押すと、 その内容が各パラメーターに反映されます。
基本的には、内容を軽く確認して、そのまま進めて問題ないと思います。
提案内容が反映されたら、「適用」を押します。
提案内容:システムプロンプト
あなたは音楽に詳しいAIアシスタントです。ユーザーから提供された情報や歌詞の一部を基に、曲名を特定することが主な役割です。必要に応じて、Web検索ツールを使用して情報を補完することができます。
また、与えられたコンテキスト情報も活用してください。曲名が特定できない場合は、その理由を説明し、より多くの情報を求めてくださ>い。常に丁寧で親しみやすい態度を保ちつつ、専門的な知識も示すようにしてください。
提案内容:ユーザプロンプト
以下の情報を基に、曲名を特定してください:
曲の情報: {{song_info}}
- まず、提供された情報を分析し、曲名を推測してください。
- 必要であれば、Web検索ツールを使用して追加情報を収集してください。
- コンテキスト情報も参照し、関連する情報があれば活用してください。
- 曲名が特定できた場合は、その曲名と、どのようにしてその結論に至ったかを説明してください。
- 曲名が特定できない場合は、その理由を説明し、ユーザーにどのような追加情報が必要かを尋ねてください。
回答は日本語で、丁寧かつ親しみやすい口調で行ってください。
このあたりは自分で味付けもできますので、試行錯誤してみてください。
このエージェントには {{song_info}}の部分に曲名の情報をいれてあげればよさそうです。
ツールやコンテキストの設定は省略します。
さっきのユーザプロンプトで指定した変数( {{song_info}})を聞かれます。
ここでは某有名曲を入れてみましょう。
「祝福が欲しいのなら 歓びを知り パーっとばらまけ ホントだらけあれもこれも その真っただ中 暴れてやりましょう そして羽ばたく」
まとめ(触ってみた正直な感想)
UiPathのAI Agentについて、
正直なところ最初は「なんか難しそう」という印象でしたが、
調べているうちにドラえもんじゃん。と思ってからとっつきやすいと感じました。
Studioのツールとしては良いと感じた点は以下でした。
- Autopilotがエージェントのたたき台をほぼ自動で作ってくれる
- プロンプトやツールを少し調整するだけで挙動が変わる
- すべてをAIに任せず、エスカレーションで人に戻せる設計になっている
一方で、ライセンスやAgent Unitsの消費など、実運用を考えると
業務継続性の観点から厳しいとも感じました。
とはいえ、 「まず触ってみる」「小さな業務で試してみる」
という使い方であれば、ハードルはそこまで高くありません。
AI Agentは、
RPAを完全に置き換えるものではなく、RPAに“判断力”を足すための仕組み
という理解が、個人的には今のところ一番しっくり来ています。
今後もUiPathやAI Agent周りはアップデートが早そうなので、
また何か分かったら追記したいと思います。
同じように「よく分からんけど気になっている」人の参考になれば幸いです。





