はじめに
最近、「ChatGPTで献立を考えてもらった」「Geminiにメールの文章を直してもらった」というような会話をよく耳にするようになりました。
AIはまるで魔法のように便利ですが、「友達とLINEする感覚」で使っていると、思わぬ落とし穴に落ちることがあります。
この記事では、ITに詳しくない方でも今日から実践できる、 「AIと安全に付き合うための3つの約束」 を紹介します。
こんな方におすすめ
- 日常生活や仕事でなんとなく生成AIを使っている方
- 「情報漏洩」という言葉にドキッとする方
- 家族や同僚と安全にAIを使いたい方
約束その1:個人情報・秘密の話は「入力しない」
これが最大のルールです。 多くの無料版AIサービスでは、あなたが入力した会話データが、AIの「学習」に使われる設定になっています。
なぜ危ないの?
ユーザーが入力した情報は、巨大なAIのデータベースの一部に取り込まれる可能性があります。 極端な話、あなたが入力した「A社の田中さんの秘密」が学習され、全く関係ない誰かが「田中さんについて教えて」と聞いたときに、AIがその秘密をペラペラ喋ってしまうリスクが理論上ゼロではないのです。
❌ 入力してはいけないもの(NG例)
- 個人情報: 自分や他人の氏名、住所、電話番号、生年月日
- パスワード: サイトのIDやパスワード、クレジットカード番号
- 会社の機密: 未公開の新商品名、売上データ、社員の評価、顧客リスト
✅ どうすればいい?(OK例)
固有名詞(具体的な名前)を伏せて使いましょう。
-
NG:
「株式会社オブジェクティブコードの小夫さんに送る、納期遅延のお詫びメールを作って」
-
OK:
「取引先の担当者に送る、納期遅延のお詫びメールを作って。丁寧な口調で」
名前や社名は、AIが出力した後で自分で書き足せば安全です。
私の場合は、自分で作った文章をマスキングする形で修正依頼を出しています。
例えば、「お世話になっております。株式会社サンプルの田中です。」と打って、その後をAIに考えて欲しいときには、「お世話になっております。株式会社eのoです」というように、後で別のテキストエディターにコピペしたときに検索しやすいように、かつ、AIには情報を渡さないワードに変換しています。
約束その2:AIの答えを「鵜呑みにしない」
AIは「知識豊富な先生」のように見えますが、実は 「それっぽい文章を作るのが上手なだけの知ったかぶり」 な一面もあるように見えることがあります。 これを専門用語で「ハルシネーション(誤回答)」と呼びます。
よくある間違い
- 存在しない「おすすめのレストラン」を紹介する
- 架空の「判例(法律のルール)」をでっち上げる
- 計算間違いをする
✅ どうすればいい?
「AIも誤った回答をすることがある」と心得ておきましょう。
- 裏取りをする: お店の名前や商品のスペックなどは、必ず最後にご自身で検索し、公式サイトを確認してください。
- 責任重大な相談はしない: 医療、法律、資産運用など、人生を左右する判断をAIだけに任せるのは危険です。
約束その3:設定を見直して「学習させない」
実は、多くのAIサービスには 「私の会話を学習に使わないでください」 という設定(オプトアウト)が存在します。 少し手間ですが、最初にこれを設定しておくだけで安心感が違います。
ChatGPTの場合(例)
- 画面左下のアイコンなどをクリックして「設定(Settings)」を開く
- 「データコントロール(Data Controls)」などの項目を探す
- 「モデルの改善のためにチャットデータを使用する」といった項目をOFFにする
※サービスのデザインは頻繁に変わるため、「ChatGPT 学習させない設定」「Gemini アクティビティ オフ」などで検索して、最新の手順を確認することをおすすめします。
まとめ
AIは包丁と同じで、使い方を間違えなければ、私たちの生活を豊かにしてくれる素晴らしい道具です。
- 秘密(個人情報・機密)は入力しない
- 答えは必ず疑って確認する
- 学習拒否の設定をしておく
この3つを意識するだけで、トラブルに巻き込まれる確率はぐっと下がります。 「正しく怖がって、便利に使う」。これがAI時代の新しいリテラシーです。
会社によっては「ChatGPT利用ガイドライン」などが定められている場合があるようです。
「自分のスマホだから大丈夫」と思わず、必ず会社のルールを確認してから業務に利用しましょう。