AIサービスの利用が一般化する中、「自分の入力データがどう扱われているか」 を正しく理解することが重要になっています。
本記事では、主要なAIサービス10種類について、学習能力・セキュリティリスク・対策方法を徹底比較します。
本記事の情報は2025年11月時点のものです。各サービスのポリシーは変更される可能性があるため、利用前に必ず公式の最新情報をご確認ください。
目次
クラウド型AIサービス
1. ChatGPT(OpenAI)
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ✅ デフォルトで有効 |
| リスクレベル | 🔴 高 |
| 推奨対策 | オプトアウト設定・API利用 |
🔍 学習能力について
- ユーザー入力データをデフォルトではモデル学習に使用
- Web版の会話内容がクラウド上に保存され、サービス改善のための学習データとして活用
- 他ユーザーの会話で入力内容が流用される可能性
⚠️ セキュリティ面の懸念
- 機密情報や個人情報が学習データとして利用され、別のユーザーへの回答に含まれるリスク
- データはクラウド上で保管されるため、漏洩リスクが常に存在
🛡️ 対策
-
オプトアウト設定
-
公式サイトからの申請
- 公式サイトのプライバシーポータルからオプトアウト申請を行う

↓

メルアドか電話番号を選択
↓

Do not train on my content(私のコンテンツを学習に使用しないでください)」を選択後、手順に沿って進めれば申請が可能。
- 公式サイトのプライバシーポータルからオプトアウト申請を行う
-
Azure OpenAI Service
- 企業向けソリューションでより安全な環境
-
データ最小化
- 機密情報・個人情報は入力しない
2. Claude(Anthropic)
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ⚠️ 個人向けプランは2025年8月から変更 |
| リスクレベル | 🟡 中程度 |
| 推奨対策 | 設定変更・企業向けプラン利用 |
🔍 学習能力について
- 2025年8月29日の方針変更により、個人向けプラン(Free/Pro/Max)はデフォルトで学習利用に変更
- 企業向けプラン(Team/Enterprise)とAPI利用は引き続き学習に利用されない
- 方針転換前は「デフォルトで学習に使用しない」が売りだった
⚠️ セキュリティ面の懸念
- 個人向けプランでは、オプトアウト設定をしなければ会話データが学習に利用される
- 2025年9月28日までのデータは、設定変更前に入力されたものが学習対象
🛡️ 対策
-
個人アカウントの設定変更
-
企業向けプラン利用
- Team/Enterpriseプランでは学習に使用されない契約が明記
-
API利用
- API経由のデータは学習に使用されない保証あり
-
GDPR/CCPA対応
- エンタープライズ契約で国際的なプライバシー規制に準拠
-
定期的なポリシー確認
- 規約・ポリシーの変更通知を必ず確認
3. Gemini(Google)
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ✅ リアルタイム検索・学習 |
| リスクレベル | 🟡 中程度 |
| 推奨対策 | 個人情報最小化 |
🔍 学習能力について
- Google検索と連携してリアルタイム情報を取得
- Deep Search機能で膨大な情報を自動収集・分析
- 検索履歴や利用データがGoogleに保存される可能性
⚠️ セキュリティ面の懸念
- リアルタイム検索により、入力プロンプトがGoogle側に送信
- ユーザーの質問内容やプロジェクト情報が分析・保存される可能性
🛡️ 対策
-
セキュリティ製品との統合
- 有害コンテンツのブロック・プロンプトインジェクション防止機能を活用
-
個人情報の最小限化
- 具体的な企業名やプロジェクト名の入力を避ける
- プライバシー設定の確認
4. Microsoft 365 Copilot
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ❌ 学習に利用なし |
| リスクレベル | 🟢 低 |
| 推奨対策 | Purview・商用データ保護 |
🔍 学習能力について
- Microsoft Graph経由のプロンプト・応答・データは基礎LLMの学習に使用されない
- 学習済みLLMを使用するため、業務データとの分離が可能
⚠️ セキュリティ面の懸念
- プロンプトインジェクション攻撃やデータアクセスの不正利用リスク
- ファイルやドキュメントへのアクセス権限に基づくデータ漏洩の可能性
🛡️ 対策
-
Microsoft Purview活用
- データ暗号化、ラベル付与、アクセス制限を一元管理
-
商用データ保護(Commercial Data Protection)
- ユーザーデータが学習に使用されず、会話データが保存されない
-
Microsoft Security Copilot
- セキュリティポリシー作成・管理、インシデント調査を自動化
-
ログ監視
- 使用したアプリケーションやアクセスデータを確認
5. Perplexity AI
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ✅ デフォルトで収集・保持 |
| リスクレベル | 🔴 高 |
| 推奨対策 | 企業向けプラン利用 |
🔍 学習能力について
- 入力データは基本的に収集・保持される仕様
- 個人情報(名前、住所、アカウント情報、デバイス情報)も収集対象
- 検索履歴、AIプロファイルデータも保持
⚠️ セキュリティ面の懸念
- 入力データがAI学習に使用される可能性が高い
- 情報源の透明性はあるが、個人情報は保存・分析される
- 個人情報はアカウント削除後30日以内にサーバから削除
🛡️ 対策
-
機密情報の入力を避ける
- 公開されても問題ない情報のみを入力
-
Enterprise版利用
- 7日後の自動削除、学習非利用設定など
-
プライバシー設定の確認
- 定期的に利用規約を確認し、データ保持期間を把握
6. Grok(X)⚠️
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ✅ デフォルトで学習 |
| リスクレベル | 🔴 極度に高 |
| 推奨対策 | オプトアウト・匿名アカウント |
🔍 学習能力について
- ユーザーの対話データをAIモデル学習に使用(デフォルトで学習利用)
- X(旧Twitter)上の投稿内容やユーザーの行動履歴との連携
- 過去に37万件のプライベート会話が漏洩した重大インシデント
⚠️ セキュリティ面の懸念
- 会話内容の公開・漏洩リスクが非常に高い
- X連携による個人情報の紐づけと流出リスク
- 医療相談、パスワード、ビジネス文書を含むあらゆる情報が漏洩対象
🛡️ 対策
-
AI学習のオプトアウト
-
過去の履歴を全削除
- Grok内の過去の会話データを削除
-
プライベートチャットモード利用
- 不安な対話では必ずプライベートチャットモードを使用
-
匿名サブアカウント運用
- 本アカウントと分離した専用アカウントで会話
-
個人情報の最小限化
- プロフィール情報(本名、顔写真、居住地)を登録しない
Grokは過去の重大な情報漏洩インシデントがあり、X連携による個人情報の紐づけリスクも高いため、機密情報の入力は絶対に避けてください。
ローカル実行型AIサービス
7. Kiro(AWS IDE)
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ⚠️ テレメトリ有効 |
| リスクレベル | 🟢🟡 低~中 |
| 推奨対策 | テレメトリ無効化 |
🔍 学習能力について
- サービス改善のためのデータ利用がデフォルトで有効
- ユーザーの質問、Kiroの応答内容、テレメトリーデータがAWSに送信
- ユーザーが承認したフィードバック(プロジェクト情報)が収集される場合あり
⚠️ セキュリティ面の懸念
- ユーザーの質問やコード内容が米国東部(バージニア北部)リージョンに保存
- Autopilotモードではユーザー承認なくファイル削除が可能(誤削除リスク)
- AWS責任共有モデルに従うため、ユーザーも一定の責任負担が必要
🛡️ 対策
-
テレメトリ無効化
-
Supervisedモード利用
- すべての操作を事前に承認するモードを使用
-
信頼できるコマンドの制限
- 読み取り専用コマンド(ls, cat, echo等)のみ自動承認に限定
-
ワークスペース分離
- 機密プロジェクトは別のワークスペースで管理
-
AWS認証情報の管理
- 一時的な認証情報を使用し、不要時は削除
-
クリーンな環境の使用
- Kiro専用の独立したユーザーアカウントやコンテナ環境を作成
8. Ollama(ローカルLLM実行環境)
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ❌ 基本的に利用なし |
| リスクレベル | 🟢 低 |
| 推奨対策 | 完全ローカル運用 |
🔍 学習能力について
- ローカル環境で完全に動作するため、基本的にモデル学習にはデータが送信されない
- 2025年9月25日にWeb検索API機能が追加され、外部情報へのアクセスが可能に
- Web検索API利用時はOllamaアカウント・APIキーが必要で、クラウドへのアクセスが発生
⚠️ セキュリティ面の懸念
- ローカル実行時は履歴ファイルがプレーンテキストで保存
- 詳細なプライバシーポリシーが欠落しており、CCPA対応も不明確
- Web検索機能により、ローカルファースト哲学からの転換が起こり、プライバシー懸念が増加
🛡️ 対策
-
完全ローカル運用
- Web検索APIを使用せず、ローカルモデルのみで運用
-
代替ツール検討
- SearXNGなど自己ホスト可能な検索ツールとの統合を検討
-
履歴ファイルの管理
- ローカルの履歴ファイルアクセスを制限し、機密情報を保護
-
プライバシードキュメント確認
- 今後のプライバシーポリシー更新を監視
9. Codeium(AIコード補完ツール)
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ❌ 学習に利用なし |
| リスクレベル | 🟢 低 |
| 推奨対策 | デフォルト設定で安全 |
🔍 学習能力について
- 無料版でも機密データの学習に使用しない設計
- ユーザーコードは学習に使用されず、暗号化転送で保護
- エンタープライズプランではさらに強固なセキュリティ対策
⚠️ セキュリティ面の懸念
- AIが生成したコードの著作権侵害リスク
- 企業で使用する場合、機密データ漏洩リスクがある
🛡️ 対策
-
デフォルトのプライバシー保護利用
- 無料版でも機密データ学習は実施されないため、安心して利用可能
-
著作権確認
- 生成コードが既存コードの著作権を侵害していないか、人間による最終チェック
-
エンタープライズプラン活用
- 企業では、より高度なセキュリティ対策を提供するプランを導入
10. Cursor(AI統合コードエディタ)
基本情報
| 項目 | 内容 |
|---|---|
| 学習利用 | ⚠️ テレメトリ有効 |
| リスクレベル | 🟢🟡 低~中程度 |
| 推奨対策 | プライバシーモード有効化 |
🔍 学習能力について
- デフォルトでは改善目的のテレメトリ収集が行われる
- 一部プロンプト・コードスニペットが匿名化された形で保存される場合あり
- SOC 2 Type II認証を取得し、企業利用におけるセキュリティ基準に準拠
⚠️ セキュリティ面の懸念
- テレメトリ無効化なしでは、プロンプトやコードがリモートに保存される可能性
- デフォルト設定では情報が一定期間保持される
🛡️ 対策
-
プライバシーモード有効化
-
Businessプラン利用
- 組織全体でプライバシーモードを強制適用
-
SOC 2認証活用
- 企業セキュリティ基準への準拠を確認
比較表・まとめ
一覧比較表
| AIサービス | 学習利用 | リスクレベル | 主な対策 |
|---|---|---|---|
| ChatGPT | ✅ デフォルト | 🔴 高 | オプトアウト、API、Azure |
| Claude | ⚠️ 個人向けのみ | 🟡 中 | 設定変更、Team/Enterprise |
| Gemini | ✅ リアルタイム | 🟡 中 | 個人情報最小化、設定確認 |
| M365 Copilot | ❌ なし | 🟢 低 | Purview、商用データ保護 |
| Perplexity | ✅ デフォルト | 🔴 高 | Enterprise版、公開情報のみ |
| Grok | ✅ デフォルト | 🔴🔴 極高 | オプトアウト、匿名アカウント |
| Kiro | ⚠️ テレメトリ | 🟢🟡 低~中 | テレメトリ無効化、Supervised |
| Ollama | ❌ なし | 🟢 低 | 完全ローカル、API未使用 |
| Codeium | ❌ なし | 🟢 低 | デフォルトで安全 |
| Cursor | ⚠️ テレメトリ | 🟢🟡 低~中 | プライバシーモード有効化 |
🎯 用途別おすすめ
最も安全な選択肢(プライバシー重視)
✅ Ollama(完全ローカル)
✅ Codeium
✅ Cursor(プライバシーモード有効時)
企業利用に適した選択肢
✅ Claude Team/Enterprise
✅ ChatGPT API
✅ Microsoft 365 Copilot
⚠️ 最も注意が必要
🔴 Grok(データ漏洩リスクが極めて高い)
💡 プライバシー保護のための共通ベストプラクティス
-
デフォルト設定を確認する
- ほとんどのサービスは「学習利用ON」がデフォルト
- 初回利用時に必ず設定を確認・変更
-
機密情報は入力しない
- 個人情報、パスワード、企業の機密情報は絶対に入力しない
- 必要最小限の情報のみを提供
-
企業向けプランを検討
- 業務利用の場合は、必ず企業向けプランを選択
- API経由の利用も検討
-
定期的なポリシー確認
- プライバシーポリシーは頻繁に変更される
- 重要なサービスは定期的に確認
-
ローカル実行型の活用
- 本当に機密性の高い作業には、Ollamaなどのローカル実行型を使用
まとめ
AIサービスは非常に便利ですが、「便利さ」と「プライバシー」はトレードオフの関係にあります。
自分の用途やリスク許容度に応じて、適切なサービスを選択することが重要です。
特に、業務で利用する場合は、必ず企業向けプランやAPI経由での利用を検討し、組織全体でのガイドライン策定をおすすめします。
まあ当たり前ですが、結局学習されて困るような情報は渡さないのがベストですね。
参考リンク
ChatGPT(OpenAI)
| タイトル | URL |
|---|---|
| ChatGPTのセキュリティリスク | https://jp.tdsynnex.com/blog/ai/chatgpt-security-risks/ |
| ChatGPTの学習設定について | https://www.lanscope.jp/blogs/it_asset_management_emcloud_blog/20250328_26042/ |
| ChatGPT-4 Turboの詳細 | https://ai-market.jp/technology/chatgpt-4-turbo/ |
| ChatGPTセキュリティリスク解説 | https://hitobo.io/blog/chatgpt-security-risks/ |
Claude(Anthropic)
| タイトル | URL |
|---|---|
| Claude学習設定の変更について | https://generative-ai.sejuku.net/blog/172/ |
| Claudeプライバシーポリシー更新 | https://ensou.app/blog/anthropic-claude-terms-and-privacy-update-2025/ |
| Claude学習機能オフ設定方法 | https://ai-keiei.shift-ai.co.jp/claude-no-learning-setting/ |
| Claudeの安全性について | https://ai-front-trend.jp/claude-safety/ |
Gemini(Google)
| タイトル | URL |
|---|---|
| Geminiの情報収集機能 | https://googleworkspace.tscloud.co.jp/gemini/information-gathering |
| Google AI Gemini海外調査 | https://japan.wipgroup.com/media/google-ai-gemini-overseas-research |
Microsoft 365 Copilot
| タイトル | URL |
|---|---|
| Copilotのプライバシー設定 | https://www.fgl-ts.co.jp/blog/josys126 |
| Microsoft 365 Copilotプライバシー公式 | https://learn.microsoft.com/ja-jp/copilot/microsoft-365/microsoft-365-copilot-privacy |
| Copilot学習無効化方法 | https://ai-keiei.shift-ai.co.jp/copilot-disable-learning/ |
Perplexity AI
| タイトル | URL |
|---|---|
| Perplexity AIの安全性と使い方 | https://zenhp.co.jp/perplexity-ainoanzenseitotsuka/ |
| Perplexity AIプライバシー解説 | https://shift-ai.co.jp/blog/10641/ |
| Perplexity AI詳細レビュー | https://note.com/akira_sakai/n/nc51ae85343ee |
Grok(X)
| タイトル | URL |
|---|---|
| Grokのプライバシー設定方法 | https://arekoresanpo.com/grok-privacy-settings/ |
| Grok利用時の注意点 | https://taiziii.com/column/1942/ |
| Grokプライバシー問題解説 | https://note.com/yuuka_ai/n/n76888ec6d2fe |
Kiro(AWS IDE)
| タイトル | URL |
|---|---|
| Kiroのデータプライバシー・セキュリティ | https://blog.serverworks.co.jp/kiro-data-privacy-security |
| Kiro設定ガイド | https://note.com/ai__worker/n/n9f39e04a4c4b |
Ollama(ローカルLLM)
| タイトル | URL |
|---|---|
| Ollama完全ガイド | https://note.com/wisevine1/n/n1e0b2fc7653c |
| Ollama Web検索プライバシー懸念 | https://biggo.jp/news/202509260113_Ollama_Web_Search_Privacy_Concerns |
| Ollama詳細解説 | https://note.com/genaird/n/n17c54285129b |
Codeium
| タイトル | URL |
|---|---|
| AIツール比較330 - Codeium | https://xexeq.jp/blogs/media/ai-tool330 |
| Codeiumの未来とAIプログラミング | https://gamefi.co.jp/2025/10/13/codeium-in-depth-explanation-what-is-the-future-where-ai-will-drastically-change-programming/ |
Cursor
| タイトル | URL |
|---|---|
| Cursorプライバシー設定解説 | https://blog.cloudnative.co.jp/26826/ |
その情報古いよ!等ございましたら、ご指摘いただけますと幸いです。













