はじめに
TRIAL&RetailAI Advent Calendar 2025 の10日目の記事です。
昨日は@tr-10kさんの 「エンジニア未経験が1週間で生成AIを使って『毎日のToDoを自動生成してくれるタスク管理アプリ』を作ってみた」 という記事でした。
同じ非エンジニア目線だと、.venvで仮想環境を作っているところまでトライしているところで先に行かれたなという感覚です(・_・;)
皆様もぜひご一読ください!
AIと法律:現場で気をつけたいリスクと予防策
今回は、「AIと法律」というテーマで記事を書かせていただきます。
私自身は、ユーザーとしてChatGPTやClaudeなどAIサービスを使うことが多いですが、
法律のことを知らずに気付いたら「アウトな行為」をやっていた...
ということにならないよう、自身のための整理の意味合いメインで書きますが、
記事を読んでいただいた方にもヒントになれば幸いです。
生成AIの業務利用は、ここ1〜2年で急速に広がりました。
ChatGPTやClaudeでメール文案を作ったり、資料の下書きを頼んだり、
「ちょっとした便利ツール」として日常的に使っている方も多いのではないでしょうか。
一方で、法律の整備も進んでいます。
2025年6月には日本初のAI関連法である「AI新法」が公布され、9月に全面施行。
個人情報保護委員会からは生成AI利用に関する注意喚起も出ています。
「知らなかった」では済まされない状況になりつつある、というのが正直な実感です。
※Enterprise版でツールを契約し、セキュリティ面の課題をクリアしているケースもあるかと思いますが、
著作権や個人情報保護は引き続き残るリスクかと思います。
正直、「関連する法律を整理する」「気をつけたいリスクシナリオ」「個人でできる予防策」の見出しに関しては、
多くの方にとってすでに聞いたことがある内容がメインになるかと思うので、
その場合は終盤の「法規制の変化をウォッチする方法」をご覧ください。
AI利用で関係する法律を整理する
「法律」と聞くと身構えてしまいますが、
AIユーザーとして押さえておくべきポイントは、シンプルだということに気付かされます。
大きく分けると、以下の2つの場面で法律が関係してきます。
場面1:AIに情報を入力するとき
ChatGPTやClaudeに何かを入力する。その行為自体にリスクがあります。
個人情報保護法
顧客の氏名・住所・電話番号などをAIに入力すると、
「第三者提供」に該当する可能性があります。
本人の同意なく個人情報を外部サービスに渡すのは、法律違反になりえます。
不正競争防止法
社内の機密情報(ソースコード、営業データ、未公開の企画書など)をAIに入力すると、
その情報が「営業秘密」としての法的保護を失う可能性があります。
「秘密として管理していた」と言えなくなるためです。
このケースは、私自身が最初にピンとこなかった部分ですが、
「法律違反でペナルティを受ける」というよりは、
自社の営業秘密の情報をAI経由で漏らしてしまったときに、
むしろ「不正競争防止法」による「保護を受けられなくなる」というリスクシナリオです。
参考:生成AIで作成されたコンテンツに関する法的問題について弁護士が解説
場面2:AI生成物を使うとき
AIが出力した文章や画像を使う。ここにも別のリスクがあります。
著作権法
AIが生成したコンテンツが、既存の著作物に似ていた場合、
それを公開・販売すると著作権侵害になる可能性があります。
「AIが作ったから大丈夫」とはなりません。
気をつけたいリスクシナリオ
法律の整理を踏まえて、具体的にどんな場面でリスクがあるのか見ていきます。
シナリオ1:機密コードをAIに入力してしまう
「このコードのバグを直したい」「もっと効率的に書き直したい」
そんな理由で、業務で使っているソースコードをChatGPTに貼り付ける。
一見、便利な使い方に思えますが、
入力した内容がAIの学習データに取り込まれる設定になっている場合、
機密情報が外部に流出するリスクがあります。
実際に、大手企業でこのパターンの情報漏洩が報告され、
生成AIの社内利用が全面禁止になったケースもあります。
ポイント:コードを入力する前に「これは外に出ていい情報か?」を確認。
参考:ChatGPTで情報漏洩は起こる?対策や履歴オフの設定方法を解説
シナリオ2:個人情報をAIに入力してしまう
「この顧客リストを分析して」「このメールの文面をチェックして」
そんな依頼をするとき、顧客の氏名やメールアドレスが含まれていませんか?
個人情報保護委員会は2023年6月に注意喚起を出しており、
生成AIへの個人情報入力は「第三者提供」に該当しうると明言しています。
本人同意なく入力した場合、法律違反となる可能性があります。
ポイント:個人情報は入力しない。どうしても必要なら匿名化・ダミー化する。
参考:生成AIサービスの利用に関する注意喚起等について|個人情報保護委員会
シナリオ3:AI生成コンテンツが既存作品に似ていた
AIに画像やイラストを生成させて、それを資料やSNSに使う。
そのコンテンツが、既存の著作物に似ていた場合はどうなるでしょうか。
「AIが作ったものだから自分に責任はない」とはなりません。
文化庁の見解では、AI生成物であっても、
既存著作物との「類似性」と「依拠性」があれば著作権侵害になりえます。
特に、プロンプトで特定の作家名やキャラクター名を指定した場合、
「依拠性あり」と判断されるリスクが高まります。
ポイント:生成物を公開する前に、類似作品がないか確認する習慣を。
参考:「AIと著作権に関する考え方について」の公表について|文化庁
法律違反ではないが、注意すべきリスク
ここからは、特定の法律に違反するわけではないものの、
業務上のトラブルにつながりやすいリスクを紹介します。
AI出力をそのまま業務に使ってしまう
AIの出力は、もっともらしく見えても間違っていることがあります。
いわゆる「ハルシネーション(幻覚)」と呼ばれる現象です。
米国では、弁護士がChatGPTの出力をそのまま裁判書面に使用し、
存在しない判例を引用してしまった事例が複数報告されています。
制裁金を科されたケースもあります。
ポイント:AI出力は「下書き」として扱い、必ず人間が確認する。
参考:生成AIの作成物は誰のもの?著作権の考え方&侵害事例まとめ|侍エンジニア
AIの誤回答で企業が責任を問われる
顧客対応にAIチャットボットを導入するケースが増えていますが、
AIが誤った情報を回答した場合、その責任は企業が負うことになります。
ある航空会社では、チャットボットが誤った割引ポリシーを案内し、
顧客がそれを信じて行動した結果、企業側に賠償命令が出ました。
「AIが言ったことなので責任はない」という主張は認められませんでした。
ポイント:AIを顧客対応に使う場合は、回答精度の検証と免責事項の整備を。
参考:Air Canada chatbot case highlights AI liability risks|Pinsent Masons
個人でできる予防策
会社に明確なルールがなくても、個人で気をつけられることはあります。
ここでは、AI利用の「前・中・後」に分けて整理してみます。
AI利用前にやること
-
入力しようとしているデータを確認する
- 個人情報(氏名、住所、電話番号、メールアドレス等)が含まれていないか
- 機密情報(ソースコード、未公開の企画書、契約内容等)が含まれていないか
-
AIサービスの設定を確認する
- 入力データが学習に使われる設定になっていないか
- ChatGPTの場合:Settings → Data controls → 「Improve the model for everyone」をOFF
AI利用中に気をつけること
-
固有名詞は伏せる・置き換える
- 「株式会社○○の田中様」→「取引先A社の担当者B様」
- 具体的な金額や数値も「XX円」「約○○万円」に
-
ダミーデータを活用する
- 実データの代わりに、構造だけ同じダミーデータで処理ロジックをテストする
AI出力後に確認すること
-
ファクトチェックを必ず行う
- 固有名詞、数値、日付は公式情報源と照合
- 引用元URLが本当に存在するか確認(AIが架空のURLを生成することがある)
-
類似コンテンツがないか確認する
- 画像の場合:Google画像検索やTinEyeで類似検索
- 文章の場合:特徴的なフレーズで検索してみる
-
「そのまま使わない」を習慣にする
- AIの出力は「たたき台」として扱い、必ず自分の言葉で編集する
法規制の変化をウォッチする方法
AI関連の法律やガイドラインは、今後も変わっていく可能性が高いです。
とはいえ、毎日ニュースをチェックするのは現実的ではありません。
ここでは、週1時間程度で無理なく続けられる方法を紹介します。
押さえておきたい情報源
公的機関
- 個人情報保護委員会 - 生成AI関連の注意喚起を随時掲載
- 経済産業省 AI関連 - AI事業者ガイドラインの更新情報
- 文化庁 著作権関連 - AIと著作権に関する見解
法律事務所のニュースレター(無料)
- 大手法律事務所が、法改正やガイドライン更新の解説記事を定期配信しています
- 「AI」「生成AI」などのキーワードで絞り込むと効率的
Googleアラートを設定する
Googleアラートで以下のキーワードを登録しておくと、
関連ニュースがメールで届くようになります。配信頻度は「週1回」がおすすめ。
生成AI 法律
AI 個人情報保護
AI 著作権
AI事業者ガイドライン
月1回、10分でできるチェック
毎月1回、以下をざっと確認するだけでも違います。
- 個人情報保護委員会のお知らせページに新着がないか
- 「AI 法規制」でニュース検索して、大きな動きがないか
- 使っているAIサービスの利用規約に変更がないか
今後の動き:AI新法について
2025年6月、日本で初めてのAI関連法である
「人工知能関連技術の研究開発及び活用の推進に関する法律」が公布され、
9月に全面施行されました。
ただし、この法律は「規制」ではなく「推進」を目的としたものです。
現時点では罰則規定がなく、AI開発者・提供者・利用者に対して
「国の施策への協力」を求める内容が中心となっています。
つまり、現場のAIユーザーにとっては、
引き続き個人情報保護法・著作権法・不正競争防止法といった既存の法律が
実務上のリスク判断の基準になります。
ただし、国会の附帯決議では「リスクベースアプローチに基づく規制的措置の検討」も
明記されており、今後の状況次第で規制が強化される可能性は残っています。
定期的に動向をウォッチしておくことをおすすめします。
参考:【2025年施行】AI新法とは?AIの研究開発・利活用を推進する法律を分かりやすく解説!|契約ウォッチ
まとめ
生成AIは便利なツールですが、使い方によっては法的リスクが発生します。
最後に、この記事のポイントを整理しておきます。
覚えておきたい3つのこと
- 入力に注意:個人情報・機密情報はAIに入力しない
- 出力を鵜呑みにしない:AI生成物は必ず人間がチェックする
- 設定を確認:データが学習に使われない設定になっているか確認する
関係する主な法律
- 個人情報保護法:個人情報の入力は「第三者提供」に該当しうる
- 不正競争防止法:機密情報の入力で法的保護を失うリスク
- 著作権法:AI生成物でも既存作品に似ていれば侵害になりうる
「知らなかった」では済まされない時代になりつつあります。
この記事が、AIを安全に活用するためのヒントになれば幸いです。
最後に
明日は@yang_zaiqiさんの「AI時代のチームリーダー」という記事です。お楽しみに!
RetailAIとTRIALではエンジニアを募集しています。
興味がある方はご連絡ください!