2
4

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

主要AIサービスのセキュリティ比較:データ学習させないためには

Last updated at Posted at 2025-11-05

AIサービスの利用が一般化する中、「自分の入力データがどう扱われているか」 を正しく理解することが重要になっています。
本記事では、主要なAIサービス10種類について、学習能力・セキュリティリスク・対策方法を徹底比較します。

本記事の情報は2025年11月時点のものです。各サービスのポリシーは変更される可能性があるため、利用前に必ず公式の最新情報をご確認ください。

目次

  1. クラウド型AIサービス
  2. ローカル実行型AIサービス
  3. 比較表・まとめ

クラウド型AIサービス

1. ChatGPT(OpenAI)

基本情報
項目 内容
学習利用 ✅ デフォルトで有効
リスクレベル 🔴 高
推奨対策 オプトアウト設定・API利用

🔍 学習能力について

  • ユーザー入力データをデフォルトではモデル学習に使用
  • Web版の会話内容がクラウド上に保存され、サービス改善のための学習データとして活用
  • 他ユーザーの会話で入力内容が流用される可能性

⚠️ セキュリティ面の懸念

  • 機密情報や個人情報が学習データとして利用され、別のユーザーへの回答に含まれるリスク
  • データはクラウド上で保管されるため、漏洩リスクが常に存在

🛡️ 対策

  1. オプトアウト設定

    • 設定画面から「全ての人のためにモデルを改善する」をオフにする
      スクリーンショット 2025-11-05 133818.png

      スクリーンショット 2025-11-05 134242.png

      image.png
      上記をオフにして「実行する」

    • ⚠️ 設定前の入力は対象外

  2. 公式サイトからの申請

    • 公式サイトのプライバシーポータルからオプトアウト申請を行う
      スクリーンショット 2025-11-05 135430.png

      image.png
      メルアドか電話番号を選択

      スクリーンショット 2025-11-05 135740.png
      Do not train on my content(私のコンテンツを学習に使用しないでください)」を選択後、手順に沿って進めれば申請が可能。
  3. Azure OpenAI Service

    • 企業向けソリューションでより安全な環境
  4. データ最小化

    • 機密情報・個人情報は入力しない

2. Claude(Anthropic)

基本情報
項目 内容
学習利用 ⚠️ 個人向けプランは2025年8月から変更
リスクレベル 🟡 中程度
推奨対策 設定変更・企業向けプラン利用

🔍 学習能力について

  • 2025年8月29日の方針変更により、個人向けプラン(Free/Pro/Max)はデフォルトで学習利用に変更
  • 企業向けプラン(Team/Enterprise)とAPI利用は引き続き学習に利用されない
  • 方針転換前は「デフォルトで学習に使用しない」が売りだった

⚠️ セキュリティ面の懸念

  • 個人向けプランでは、オプトアウト設定をしなければ会話データが学習に利用される
  • 2025年9月28日までのデータは、設定変更前に入力されたものが学習対象

🛡️ 対策

  1. 個人アカウントの設定変更

    • ログイン後、設定→プライバシーセクション→「Claudeの改善にご協力ください」をオフ
      スクリーンショット 2025-11-05 141816.png

      スクリーンショット 2025-11-05 142419.png
  2. 企業向けプラン利用

    • Team/Enterpriseプランでは学習に使用されない契約が明記
  3. API利用

    • API経由のデータは学習に使用されない保証あり
  4. GDPR/CCPA対応

    • エンタープライズ契約で国際的なプライバシー規制に準拠
  5. 定期的なポリシー確認

    • 規約・ポリシーの変更通知を必ず確認

3. Gemini(Google)

基本情報
項目 内容
学習利用 ✅ リアルタイム検索・学習
リスクレベル 🟡 中程度
推奨対策 個人情報最小化

🔍 学習能力について

  • Google検索と連携してリアルタイム情報を取得
  • Deep Search機能で膨大な情報を自動収集・分析
  • 検索履歴や利用データがGoogleに保存される可能性

⚠️ セキュリティ面の懸念

  • リアルタイム検索により、入力プロンプトがGoogle側に送信
  • ユーザーの質問内容やプロジェクト情報が分析・保存される可能性

🛡️ 対策

  1. セキュリティ製品との統合
    • 有害コンテンツのブロック・プロンプトインジェクション防止機能を活用
  2. 個人情報の最小限化
    • 具体的な企業名やプロジェクト名の入力を避ける
  3. プライバシー設定の確認
    • Googleアカウントの設定で、検索履歴やアクティビティの保存を制限
      スクリーンショット 2025-11-05 143916.png

      image.png
      「オフにする」を選択

4. Microsoft 365 Copilot

基本情報
項目 内容
学習利用 ❌ 学習に利用なし
リスクレベル 🟢 低
推奨対策 Purview・商用データ保護

🔍 学習能力について

  • Microsoft Graph経由のプロンプト・応答・データは基礎LLMの学習に使用されない
  • 学習済みLLMを使用するため、業務データとの分離が可能

⚠️ セキュリティ面の懸念

  • プロンプトインジェクション攻撃やデータアクセスの不正利用リスク
  • ファイルやドキュメントへのアクセス権限に基づくデータ漏洩の可能性

🛡️ 対策

  1. Microsoft Purview活用
    • データ暗号化、ラベル付与、アクセス制限を一元管理
  2. 商用データ保護(Commercial Data Protection)
    • ユーザーデータが学習に使用されず、会話データが保存されない
  3. Microsoft Security Copilot
    • セキュリティポリシー作成・管理、インシデント調査を自動化
  4. ログ監視
    • 使用したアプリケーションやアクセスデータを確認

5. Perplexity AI

基本情報
項目 内容
学習利用 ✅ デフォルトで収集・保持
リスクレベル 🔴 高
推奨対策 企業向けプラン利用

🔍 学習能力について

  • 入力データは基本的に収集・保持される仕様
  • 個人情報(名前、住所、アカウント情報、デバイス情報)も収集対象
  • 検索履歴、AIプロファイルデータも保持

⚠️ セキュリティ面の懸念

  • 入力データがAI学習に使用される可能性が高い
  • 情報源の透明性はあるが、個人情報は保存・分析される
  • 個人情報はアカウント削除後30日以内にサーバから削除

🛡️ 対策

  1. 機密情報の入力を避ける
    • 公開されても問題ない情報のみを入力
  2. Enterprise版利用
    • 7日後の自動削除、学習非利用設定など
  3. プライバシー設定の確認
    • 定期的に利用規約を確認し、データ保持期間を把握

6. Grok(X)⚠️

基本情報
項目 内容
学習利用 ✅ デフォルトで学習
リスクレベル 🔴 極度に高
推奨対策 オプトアウト・匿名アカウント

🔍 学習能力について

  • ユーザーの対話データをAIモデル学習に使用(デフォルトで学習利用)
  • X(旧Twitter)上の投稿内容やユーザーの行動履歴との連携
  • 過去に37万件のプライベート会話が漏洩した重大インシデント

⚠️ セキュリティ面の懸念

  • 会話内容の公開・漏洩リスクが非常に高い
  • X連携による個人情報の紐づけと流出リスク
  • 医療相談、パスワード、ビジネス文書を含むあらゆる情報が漏洩対象

🛡️ 対策

  1. AI学習のオプトアウト

    • デフォルト設定から学習機能をオフに変更
      プロフィール下の「もっと見る」から
      スクリーンショット 2025-11-05 145129.png

      スクリーンショット 2025-11-05 145451.png

      スクリーンショット 2025-11-05 145624.png

      image.png
      上画像のチェックを外す
  2. 過去の履歴を全削除

    • Grok内の過去の会話データを削除
  3. プライベートチャットモード利用

    • 不安な対話では必ずプライベートチャットモードを使用
  4. 匿名サブアカウント運用

    • 本アカウントと分離した専用アカウントで会話
  5. 個人情報の最小限化

    • プロフィール情報(本名、顔写真、居住地)を登録しない

Grokは過去の重大な情報漏洩インシデントがあり、X連携による個人情報の紐づけリスクも高いため、機密情報の入力は絶対に避けてください。

ローカル実行型AIサービス

7. Kiro(AWS IDE)

基本情報
項目 内容
学習利用 ⚠️ テレメトリ有効
リスクレベル 🟢🟡 低~中
推奨対策 テレメトリ無効化

🔍 学習能力について

  • サービス改善のためのデータ利用がデフォルトで有効
  • ユーザーの質問、Kiroの応答内容、テレメトリーデータがAWSに送信
  • ユーザーが承認したフィードバック(プロジェクト情報)が収集される場合あり

⚠️ セキュリティ面の懸念

  • ユーザーの質問やコード内容が米国東部(バージニア北部)リージョンに保存
  • Autopilotモードではユーザー承認なくファイル削除が可能(誤削除リスク)
  • AWS責任共有モデルに従うため、ユーザーも一定の責任負担が必要

🛡️ 対策

  1. テレメトリ無効化

    • 設定→User→Application→Telemetry and Content→Disabledでデータ収集を完全に無効化
      スクリーンショット 2025-11-05 150610.png

      スクリーンショット 2025-11-05 150814.png
  2. Supervisedモード利用

    • すべての操作を事前に承認するモードを使用
  3. 信頼できるコマンドの制限

    • 読み取り専用コマンド(ls, cat, echo等)のみ自動承認に限定
  4. ワークスペース分離

    • 機密プロジェクトは別のワークスペースで管理
  5. AWS認証情報の管理

    • 一時的な認証情報を使用し、不要時は削除
  6. クリーンな環境の使用

    • Kiro専用の独立したユーザーアカウントやコンテナ環境を作成

8. Ollama(ローカルLLM実行環境)

基本情報
項目 内容
学習利用 ❌ 基本的に利用なし
リスクレベル 🟢 低
推奨対策 完全ローカル運用

🔍 学習能力について

  • ローカル環境で完全に動作するため、基本的にモデル学習にはデータが送信されない
  • 2025年9月25日にWeb検索API機能が追加され、外部情報へのアクセスが可能に
  • Web検索API利用時はOllamaアカウント・APIキーが必要で、クラウドへのアクセスが発生

⚠️ セキュリティ面の懸念

  • ローカル実行時は履歴ファイルがプレーンテキストで保存
  • 詳細なプライバシーポリシーが欠落しており、CCPA対応も不明確
  • Web検索機能により、ローカルファースト哲学からの転換が起こり、プライバシー懸念が増加

🛡️ 対策

  1. 完全ローカル運用
    • Web検索APIを使用せず、ローカルモデルのみで運用
  2. 代替ツール検討
    • SearXNGなど自己ホスト可能な検索ツールとの統合を検討
  3. 履歴ファイルの管理
    • ローカルの履歴ファイルアクセスを制限し、機密情報を保護
  4. プライバシードキュメント確認
    • 今後のプライバシーポリシー更新を監視

9. Codeium(AIコード補完ツール)

基本情報
項目 内容
学習利用 ❌ 学習に利用なし
リスクレベル 🟢 低
推奨対策 デフォルト設定で安全

🔍 学習能力について

  • 無料版でも機密データの学習に使用しない設計
  • ユーザーコードは学習に使用されず、暗号化転送で保護
  • エンタープライズプランではさらに強固なセキュリティ対策

⚠️ セキュリティ面の懸念

  • AIが生成したコードの著作権侵害リスク
  • 企業で使用する場合、機密データ漏洩リスクがある

🛡️ 対策

  1. デフォルトのプライバシー保護利用
    • 無料版でも機密データ学習は実施されないため、安心して利用可能
  2. 著作権確認
    • 生成コードが既存コードの著作権を侵害していないか、人間による最終チェック
  3. エンタープライズプラン活用
    • 企業では、より高度なセキュリティ対策を提供するプランを導入

10. Cursor(AI統合コードエディタ)

基本情報
項目 内容
学習利用 ⚠️ テレメトリ有効
リスクレベル 🟢🟡 低~中程度
推奨対策 プライバシーモード有効化

🔍 学習能力について

  • デフォルトでは改善目的のテレメトリ収集が行われる
  • 一部プロンプト・コードスニペットが匿名化された形で保存される場合あり
  • SOC 2 Type II認証を取得し、企業利用におけるセキュリティ基準に準拠

⚠️ セキュリティ面の懸念

  • テレメトリ無効化なしでは、プロンプトやコードがリモートに保存される可能性
  • デフォルト設定では情報が一定期間保持される

🛡️ 対策

  1. プライバシーモード有効化

    • コード・プロンプトはリモートに保存されず、学習にも使われない
      スクリーンショット 2025-11-05 151952.png
  2. Businessプラン利用

    • 組織全体でプライバシーモードを強制適用
  3. SOC 2認証活用

    • 企業セキュリティ基準への準拠を確認

比較表・まとめ

一覧比較表

AIサービス 学習利用 リスクレベル 主な対策
ChatGPT ✅ デフォルト 🔴 高 オプトアウト、API、Azure
Claude ⚠️ 個人向けのみ 🟡 中 設定変更、Team/Enterprise
Gemini ✅ リアルタイム 🟡 中 個人情報最小化、設定確認
M365 Copilot ❌ なし 🟢 低 Purview、商用データ保護
Perplexity ✅ デフォルト 🔴 高 Enterprise版、公開情報のみ
Grok ✅ デフォルト 🔴🔴 極高 オプトアウト、匿名アカウント
Kiro ⚠️ テレメトリ 🟢🟡 低~中 テレメトリ無効化、Supervised
Ollama ❌ なし 🟢 低 完全ローカル、API未使用
Codeium ❌ なし 🟢 低 デフォルトで安全
Cursor ⚠️ テレメトリ 🟢🟡 低~中 プライバシーモード有効化

🎯 用途別おすすめ

最も安全な選択肢(プライバシー重視)

✅ Ollama(完全ローカル)
✅ Codeium
✅ Cursor(プライバシーモード有効時)

企業利用に適した選択肢

✅ Claude Team/Enterprise
✅ ChatGPT API
✅ Microsoft 365 Copilot

⚠️ 最も注意が必要

🔴 Grok(データ漏洩リスクが極めて高い)

💡 プライバシー保護のための共通ベストプラクティス

  1. デフォルト設定を確認する

    • ほとんどのサービスは「学習利用ON」がデフォルト
    • 初回利用時に必ず設定を確認・変更
  2. 機密情報は入力しない

    • 個人情報、パスワード、企業の機密情報は絶対に入力しない
    • 必要最小限の情報のみを提供
  3. 企業向けプランを検討

    • 業務利用の場合は、必ず企業向けプランを選択
    • API経由の利用も検討
  4. 定期的なポリシー確認

    • プライバシーポリシーは頻繁に変更される
    • 重要なサービスは定期的に確認
  5. ローカル実行型の活用

    • 本当に機密性の高い作業には、Ollamaなどのローカル実行型を使用

まとめ

AIサービスは非常に便利ですが、「便利さ」と「プライバシー」はトレードオフの関係にあります。
自分の用途やリスク許容度に応じて、適切なサービスを選択することが重要です。

特に、業務で利用する場合は、必ず企業向けプランやAPI経由での利用を検討し、組織全体でのガイドライン策定をおすすめします。

まあ当たり前ですが、結局学習されて困るような情報は渡さないのがベストですね。

参考リンク

ChatGPT(OpenAI)

タイトル URL
ChatGPTのセキュリティリスク https://jp.tdsynnex.com/blog/ai/chatgpt-security-risks/
ChatGPTの学習設定について https://www.lanscope.jp/blogs/it_asset_management_emcloud_blog/20250328_26042/
ChatGPT-4 Turboの詳細 https://ai-market.jp/technology/chatgpt-4-turbo/
ChatGPTセキュリティリスク解説 https://hitobo.io/blog/chatgpt-security-risks/

Claude(Anthropic)

タイトル URL
Claude学習設定の変更について https://generative-ai.sejuku.net/blog/172/
Claudeプライバシーポリシー更新 https://ensou.app/blog/anthropic-claude-terms-and-privacy-update-2025/
Claude学習機能オフ設定方法 https://ai-keiei.shift-ai.co.jp/claude-no-learning-setting/
Claudeの安全性について https://ai-front-trend.jp/claude-safety/

Gemini(Google)

タイトル URL
Geminiの情報収集機能 https://googleworkspace.tscloud.co.jp/gemini/information-gathering
Google AI Gemini海外調査 https://japan.wipgroup.com/media/google-ai-gemini-overseas-research

Microsoft 365 Copilot

タイトル URL
Copilotのプライバシー設定 https://www.fgl-ts.co.jp/blog/josys126
Microsoft 365 Copilotプライバシー公式 https://learn.microsoft.com/ja-jp/copilot/microsoft-365/microsoft-365-copilot-privacy
Copilot学習無効化方法 https://ai-keiei.shift-ai.co.jp/copilot-disable-learning/

Perplexity AI

タイトル URL
Perplexity AIの安全性と使い方 https://zenhp.co.jp/perplexity-ainoanzenseitotsuka/
Perplexity AIプライバシー解説 https://shift-ai.co.jp/blog/10641/
Perplexity AI詳細レビュー https://note.com/akira_sakai/n/nc51ae85343ee

Grok(X)

タイトル URL
Grokのプライバシー設定方法 https://arekoresanpo.com/grok-privacy-settings/
Grok利用時の注意点 https://taiziii.com/column/1942/
Grokプライバシー問題解説 https://note.com/yuuka_ai/n/n76888ec6d2fe

Kiro(AWS IDE)

タイトル URL
Kiroのデータプライバシー・セキュリティ https://blog.serverworks.co.jp/kiro-data-privacy-security
Kiro設定ガイド https://note.com/ai__worker/n/n9f39e04a4c4b

Ollama(ローカルLLM)

タイトル URL
Ollama完全ガイド https://note.com/wisevine1/n/n1e0b2fc7653c
Ollama Web検索プライバシー懸念 https://biggo.jp/news/202509260113_Ollama_Web_Search_Privacy_Concerns
Ollama詳細解説 https://note.com/genaird/n/n17c54285129b

Codeium

タイトル URL
AIツール比較330 - Codeium https://xexeq.jp/blogs/media/ai-tool330
Codeiumの未来とAIプログラミング https://gamefi.co.jp/2025/10/13/codeium-in-depth-explanation-what-is-the-future-where-ai-will-drastically-change-programming/

Cursor

タイトル URL
Cursorプライバシー設定解説 https://blog.cloudnative.co.jp/26826/

その情報古いよ!等ございましたら、ご指摘いただけますと幸いです。

2
4
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
4

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?