0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AIエージェント入門 - 勉強会資料

Last updated at Posted at 2025-07-15

AIエージェント入門 - 勉強会資料

0.本記事は誤りを含む可能性があるため注意してください

https://claude.ai/public/artifacts/97bf6f7c-2f45-4f78-9c9f-c0877a05f7d7
https://claude.ai/public/artifacts/9b67e2e6-b083-43b4-baae-41e7a72263c4

  1. 生成AIを使った攻撃(人間が主導)
    2024年5月27日、対話型生成AIを悪用してマルウェアを作成したとして、不正指令電磁的記録作成容疑で警視庁が川崎市の男性を逮捕したと報じられました。生成AIを使用してマルウェアを作成したことに起因する逮捕は国内では初めての事例となります 2024 年末〜2025 年初にかけて発生した DDoS 攻撃とは何だったのか

詳細: トレンドマイクロの解説記事
特徴: IT知識がない人物が生成AIを使ってランサムウェアを作成
判決: 懲役3年、執行猶予4年

  1. 2025年の追加事例
    2025年に入って早々に、再び生成AIを悪用した逮捕事例が報道されました(2025年2月)。報道によれば、 警視庁が中高生3人を不正アクセス禁止法違反と電子計算機使用詐欺の疑いで逮捕しました 2024 年末〜2025 年初にかけて発生した DDoS 攻撃とは何だったのか

中高生が生成AIを使って不正アクセスプログラムを作成
携帯会社のシステムに侵入し、通信回線を不正取得

  1. マルチエージェント型攻撃の予測
    2025年以降、マルチエージェントAI技術がより発展する中で、攻撃側、防御側それぞれの技術競争は激化する可能性が高いと言えるでしょう 情報セキュリティ10大脅威 2025 | 情報セキュリティ | IPA 独立行政法人 情報処理推進機構

NTTデータの分析: サイバーセキュリティ最前線
現在は研究開発段階で、実例はまだ確認されていない

重要な区別
現在の状況

人間がAIツールを使う攻撃: すでに多数発生
AIエージェントの自律攻撃: まだ実例なし

📋 目次

  1. AIエージェントとは何か
  2. LLMとの違い
  3. AIエージェント技術発展のメリット
  4. AIエージェント技術発展のデメリット
  5. AIエージェント技術発展のメリット・デメリット【セキュリティ】
  6. まとめ

1. AIエージェントとは何か

1.1 基本定義

AIエージェントとは、ワークフローを設計し、利用可能なツールを活用することで、ユーザーまたは別のシステムに代わってタスクを自律的に実行できるシステムまたはプログラムです。

Gartnerの定義によると、「デジタルおよびリアルの環境で、状況を知覚し、意思決定を下し、アクションを起こし、目的を達成するためにAI技法を適用する自律的または半自律的なソフトウェア」とされています。

1.2 従来のAIとの違い

従来のAIとAIエージェントの根本的な違いは:

  • 従来のAI: 「LLMに回答させる」というかなりシンプルな実装
  • AIエージェント: 「LLMに働かせる」という、より柔軟で汎用性のある実装

1.3 AIエージェントの構成要素

AIエージェントの特徴は「Planning(計画)」、「Tool Use (ツール使用)」、「Reflection(見直し)」、「Multiagent(マルチエージェント)」にあります。

  1. Planning(計画): タスクを分解し、実行計画を立案
  2. Tool Use(ツール使用): 外部APIやシステムと連携
  3. Reflection(見直し): 結果を評価し、改善を実施
  4. Multiagent(マルチエージェント): 複数のエージェントが協調作業

1.4 なぜ2025年が「AIエージェント元年」なのか

2025年はAIエージェント元年と呼ばれており、AI自身が状況を判断し、計画を立て、行動するような世界観になってきています。

主要テック企業の動向:

  • OpenAI: Operator(ブラウザ自動操作)をリリース
  • Microsoft: AutoGenフレームワークを提供
  • Google: Vertex AI Agent Builderを展開
  • Anthropic: Computer use機能を実装

2. LLMとの違い

2.1 基本的な違い

項目 LLM AIエージェント
基本機能 テキスト生成・応答 自律的なタスク実行
動作方式 単発の質問・回答 継続的な問題解決
外部連携 基本的になし 外部ツール・API活用
自律性 人間の指示が必要 自律的な判断・行動

2.2 具体的な違いの例

LLMの場合

質問: 「東京で美味しいレストランを教えて」
回答: 学習データに基づいた一般的な情報を提供

AIエージェントの場合

指示: 「東京で美味しいレストランを予約して」
実行内容:

  1. リアルタイムでレストラン情報を検索
  2. 予算や好みに合った候補を抽出
  3. 空席状況を確認
  4. 実際に予約を完了
  5. 確認メールの受信を報告

2.3 実際の具体例

OpenAI Operator(2025年1月発表)

ユーザーに代わってウェブにアクセスしてタスクを実行できるエージェント。自身のブラウザを使用したWebページの閲覧、および入力、クリック、スクロールによるインタラクトが可能

実際の動作例:

  • 「フライトを予約して」→ 航空会社サイトで検索・比較・予約完了
  • 「会議室を押さえて」→ 社内システムにアクセスして空室確認・予約

Devin(AI開発エージェント)

「完全自律型AIエンジニア」として、仕様理解から実装・テスト・デプロイ・PR作成までを自律的にこなすAI開発エージェント

実際の動作例:

  • コードの自動生成
  • バグの自動修正
  • テストケースの作成と実行
  • GitHub上でのPR作成

トヨタのO-Beya(オーベヤ)システム

エンジンやバッテリー、振動、燃費、法規制など9分野の専門AIが協働し、エンジニアの質問に対応。過去の設計データや法規制情報、ベテラン技術者の手書き文書などを統合して活用


3. AIエージェント技術発展のメリット

3.1 業務効率化・自動化

24時間365日の稼働

AIエージェントは24時間365日稼働し続けることが可能で、人間のように疲れたり休んだりする必要がありません

複雑なタスクの一気通貫処理

AIエージェントが目標を理解し、その目標の達成に向けて自律的に計画を立て、実行できるようになり、データ分析、見込み客の推定、既存顧客のフォローといった一連のプロセスを代替できるようになります

3.2 人材不足問題の解決

労働力人口減少への対応

日本の生産年齢人口(15〜64歳)は、2020年の7,509万人から、団塊のジュニア世代が65歳となる2050年には5,275万人(2020年比で29.75%減)にまで減少する

業務の高度化

AIエージェントは大量のデータを短時間で処理でき、そのプロセスから感情を排除することができます。この特徴を生かすことで、データ処理の点では、社内外の過去のデータを幅広く分析したり、経営に影響する経済関連のデータを網羅的に収集して分析したりすることができます

3.3 具体的な活用メリット

営業分野

  • 現在: 基本的な顧客対応の自動化
  • 将来: 営業プロセスの全自動化により、市場動向、競合情報、顧客心理を複合的に分析し、AIエージェントが最適な顧客対応や契約提案を自律的に立案・実行

カスタマーサポート

  • 現在: チャットボットによる基本対応
  • 将来: AIエージェントは人間同士の引き継ぎで失われたデータや過去の会話の文脈にアクセスして、異なる機能を持つAIエージェントや人間の間でシームレスな引き継ぎを可能にします

開発・IT分野

  • プロジェクトの自動化
  • 新規従業員のオンボーディング
  • ITインシデント管理の自動化

3.4 コスト効率性

導入コストの低下

導入コストも年々低下しており、「少ないコストで高いパフォーマンス」を求める企業にとって、非常に魅力的な選択肢になっています

人的ミスの削減

  • データ入力の誤り減少
  • 感情的判断の排除
  • 一貫性のある業務処理

4. AIエージェント技術発展のデメリット

4.1 技術的リスク

AIの暴走・誤動作

不正確な出力やハルシネーション(幻覚):AIエージェントが誤った回答を生成し、それに基づいて企業が誤った判断を下すリスクがあります

Function Callingの制御困難

沢山のFunction Callingをエージェントに関連付けるといくつかの問題が発生することがあります:

  • プロンプトが複雑だったり抽象的すぎるとエージェントが理解できない
  • 沢山のFunction Callingを定義すると想定したFunction Callingが選択されない
  • 沢山のFunction Callingを定義すると想定した順序でFunction Callingが実行されない

4.2 セキュリティリスク

データ漏洩とプライバシー侵害

AIエージェントが機密情報にアクセスするケースが多いことから、データ漏洩のリスクが高まります

敵対的攻撃

外部から送信される不正ペイロードや攻撃コードなどによる攻撃リスクが考えられます

不正利用

エージェントが犯罪者に乗っ取られたり悪用されたりすると、深刻な不正行為につながる可能性があります

4.3 社会・雇用への影響

雇用の代替

  • 定型業務の自動化による雇用減少
  • 中間管理職業務の代替可能性
  • スキル要求の変化による既存労働者の適応困難

過度な依存リスク

AIを導入する前に、想定されるリスクや問題が起こる原因、トラブルの影響範囲、対処法を把握しておくことが大切です。AIに関する専門知識を持った人材が社内にいない場合、トラブルへの対応は困難です

4.4 導入・運用の課題

高い初期投資と運用コスト

  • 専門人材の確保コスト
  • システム統合の複雑性
  • 継続的なメンテナンス費用

プロジェクト失敗リスク

Gartner、2027年末までに過度な期待の中で生まれるエージェント型AIプロジェクトの40%以上が中止されるとの見解を発表

失敗の主な原因:

  • コストの高騰
  • ビジネス価値の不明確さ
  • 不十分なリスク・コントロール

運用体制の課題

AIエージェントは一度導入すれば終わり、ではありません。新しい質問に対応する必要があり、またサービスや業務の変更に応じてチューニングが必要になります

4.5 信頼性・ガバナンスの問題

ブラックボックス問題

  • AIの判断プロセスが不透明
  • 責任の所在が不明確
  • 監査・検証の困難性

規制・法的リスク

  • AI関連法規制の変化への対応
  • 個人情報保護法への準拠
  • 業界固有の規制要件

4.6 実際の制限事例

OpenAI Operatorの現在の制限

OpenAIは、安全性とユーザー体験の品質を確保するため、以下の操作を現時点で制限しています:

  • 金融取引や重要な法的文書の処理
  • 医療情報や個人の機密データの取り扱い

5. AIエージェント技術発展のメリット・デメリット【セキュリティ】

5.1 セキュリティ分野でのメリット

5.1.1 高度な脅威検知・自動化

リアルタイム異常検知
AIを活用したシステムは、脅威をリアルタイムで検知し、迅速なレスポンスと減災策を可能にします。機械学習アルゴリズムを用いることで、大量のデータをリアルタイムで分析し、通常の挙動と異なるパターンを特定します。

プロアクティブな脅威検知への進化
従来の受動的に大量のアラートを処理する体制から脱却し、セキュリティ運用のあり方そのものが大きく変わります。高品質な検知ロジックを継続的に開発・改善する「Detection Engineering」のアプローチや、実際の攻撃者の戦術・技術・手順(TTPs)に基づいて防御戦略を最適化する「Threat Informed Defense」が主流になります。

5.1.2 SOC運用の効率化

AIエージェントによるSOCアナリスト支援
Security Posture Management AIのような生成AIエージェントが、SOCアナリストの業務負荷を大幅に軽減します。これには、アラートのトリアージ、影響範囲の分析、Threat Informed Defenseの原則に基づいた対応策の優先順位付けとレコメンデーションなどが含まれます。

自動化されたインシデント対応
管理者の承認に基づき、あるいは高度な自律性を持ったAIエージェントが、定義済みPlaybookに沿ってインシデントへのレスポンスや緩和策を自動的に実行します。これにより、セキュリティ運用全体の効率と対応速度が飛躍的に向上し、ゼロトラストポリシーに基づいた迅速かつ適切なアクションが期待されます。

5.1.3 マルチエージェントによる高度防御

分散型セキュリティアーキテクチャ
防御側でもマルチエージェント型AIの活用が検討されています。例えば、企業内の各コンピューターにAIエージェントを配置し、それらが相互に連携してリアルタイムで脅威を検知・対処する仕組みの研究開発が進められています。

ゼロトラスト原則の実現
AIエージェントの普及は、セキュリティアーキテクチャにも大きな変革をもたらします。このような自律的なエージェントが多数活動し、システムがマイクロサービス化していく環境においては、従来の境界型防御の考え方では不十分であり、「決して信頼せず、常に検証する」というゼロトラスト原則の適用が、全てのセキュリティ対策の基盤として不可欠です。

5.1.4 脅威インテリジェンスの高度化

合成データによる脅威検知システム強化
ジェネレーティブAIは、現実の攻撃パターンを模倣する合成データを生成することで、脅威検知システムを強化できます。これにより、機械学習モデルで利用できるトレーニングデータが拡張され、微妙な脅威や新しい脅威さえも識別してフラグ付けする能力が向上します。

5.2 セキュリティ分野でのデメリット・リスク

5.2.1 AIエージェント自体への攻撃

新たな攻撃対象面の拡大
コードを実行するLLMが、悪意あるコマンドを走らせるように乗っ取られることは?Microsoft Officeのドキュメントに隠された命令によって、AIエージェントが機密情報を漏らしてしまうことは?データベースのクエリが、攻撃者によって簡単に操作され、制限された情報が引き出されてしまう可能性は?

AIの脆弱性による深刻なリスク
AIエージェントの脆弱性は、次のような深刻なリスクをもたらします。さらに、LLMはこれから登場するエージェンティックAIアプリケーションの中核を担う存在であり、ワークフローの大部分をほぼ無監視で進める設計において、計画や推論を行うエンジンとして機能します。

5.2.2 高度化する攻撃手法

マルチエージェント型サイバー攻撃
2025年以降、サイバーセキュリティの分野で新たな脅威として注目されているのが、マルチエージェント型AIによるサイバー攻撃です。これは複数のAIが連携してサイバー攻撃を行うというもので、従来のサイバー攻撃とは比較にならないスピード感と効率性があると予測されます。

AIを悪用したフィッシング攻撃
AIを活用したフィッシングメールは、受信者の行動や好みを細かく分析し、メッセージに説得力を加えます。これにより、従来の手法に比べて受信者が騙されやすくなるほか、自動化技術によって大量のフィッシングメールを作成可能にしています。

5.2.3 セキュリティ運用上の課題

プロンプト疲れとツール乱立
セキュリティ・オペレーション・チームやプロバイダーとのコラボレーション・ワークフローにAIアシスタントを統合しようとして、技術的・運用的な困難に直面する。脅威やインシデントについて問い合わせるための対話型インタフェースが乱立し、「プロンプト疲れ」を引き起こす。

AIシステムの信頼性問題
ブラックボックス化により、AIの判断プロセスが不透明になり、セキュリティインシデントの原因究明や対策の検証が困難になる可能性があります。

5.2.4 コスト・ベンダー依存リスク

コスト増加とROI検証の困難性
生成AI導入による業務効率向上と、それに伴う実装/運用コストを総合的に評価し、適切な指標を再設定することが重要です。つまり、セキュリティ対策の自動化によって効率は上がるものの、初期投資や運用コストとのバランスを検討しなければなりません。

ベンダー・ロックインリスク
生成AIを自社の差別化要素として大規模プラットフォーム化するセキュリティ・プロバイダーには注意が必要です。そうした取り組みが進むと、特定ベンダーへの依存(ベンダー・ロックイン)リスクが高まります。

5.3 社内SE向け実践的対策提案

5.3.1 AIエージェント導入時のセキュリティ設計

多層防御とゼロトラスト原則

  • AIエージェントに対する適切なアクセス制御の実装
  • APIレベルでの認証・認可の強化
  • エージェント間通信の暗号化

監査・ログ機能の強化

  • AIエージェントの行動記録の詳細化
  • 異常行動検知のためのベースライン作成
  • インシデント対応のためのトレーサビリティ確保

5.3.2 段階的導入戦略

パイロットテストの実施
インシデント対応や脆弱性管理においてAIをパイロットテストし、有効性を検証する。AIの完全自動化を過度に推進せず、脅威環境の変化を継続的に監視する。

リスク評価とコントロール

  • AIエージェント導入前のリスクアセスメント実施
  • 段階的な権限付与とモニタリング体制の確立
  • 緊急時のAIエージェント停止手順の整備

5.3.3 組織・人材面の対策

AI TRiSMフレームワークの活用
AI TRiSM(AIの信頼、リスクおよびセキュリティ管理)などを活用し、セキュリティ対策の最適化とリスク管理の強化について解説します。

従業員教育とガイドライン策定

  • AIエージェントに関するセキュリティ意識向上
  • 適切な利用方法の周知徹底
  • インシデント発生時の対応手順の教育

6. まとめ

5.1 AIエージェントの本質

AIエージェントは人間が自然に携わってきた"タスクの粒度"をそのままエージェントが担えるようになったことが革新的なポイントです。単なる自動化ツールではなく、人間レベルのタスク処理能力を持つ存在として期待されています。

5.2 導入を成功させるために

段階的なアプローチ

まずは部分的にAIを導入することが望ましいでしょう

適切なリスク管理

リスクを正しく把握し、現場と共に運用・改善していくことで、業務の効率化と顧客満足の向上につながっていきます

継続的な改善体制

担当者や運用ルールなど、運用後もPDCAを回しながら改善していける体制を整えることが成功のカギです

5.3 未来展望

今後のAIエージェントは、単なる「自動応答システム」や「業務効率化ツール」から脱却し、人と共に意思決定を行い、創造的な業務にも対応する高度なバーチャルパートナーとして進化していくと期待されています。

5.4 企業が取るべき戦略

  1. 現実的な期待値設定: 技術の現在の限界を理解する
  2. 段階的導入: 小規模な実証実験から開始
  3. リスク管理体制: セキュリティとガバナンスの確立
  4. 人材育成: AI・エージェント技術に精通した人材の確保
  5. 継続的学習: 技術の進歩に合わせた適応

📚 参考ソース

主要な参考文献(リンク付き)

技術詳細・事例関連

具体的な技術・製品情報

セキュリティ関連の追加参考文献

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?