はじめに
chatGPTはプログラミングに限らず、執筆やメール文、議論や相談にも活用されるツールになっています。
幅広く使われるツールですが、危険性もあります。
この記事では、chatGPTの使用に伴う危険性を、事例をもとに考えていきます。
目次
- 事例:著作権を有するコードが学習に使われてしまった
- 事例から考えられる危険性
- 対策
- 対策①:オプトアウト手続きを行う
- 対策②:法人向けサービスの利用を考える
- 対策③:データの一部を書き換えて入力する
- まとめ
- おわりに
事例:著作権を有するコードが学習に使われてしまった
■参考文献
サムスン、ChatGPTの社内使用禁止 機密コードの流出受け(2023.05.03)
■概要
あるエンジニアが社内機密のソースコードをChatGPTにアップロードし、誤って流出させたことが発覚。これを受けサムスンは先週、「生成AI」ツールの使用禁止を社内に通知した。
事例から考えられる危険性
1.chatGPTの学習方法
chatGPTは高度な応答を可能にするため、利用者が入力した情報を学習データとして使用する可能性がある。
これにより、例えば社外秘コードが、誰かの質問への回答に使用されるといったことが起こりえる。
2.サーバーのセキュリティ
入力情報に気を付けていたとしても、入力情報がハッキングや不正アクセスによって漏洩してしまう危険性もある。
ChatGPTに入力した情報は、OpenAIのサーバーに一時的に保存される。しかし、それが必ずしも万全のセキュリティ環境であるとは限らない。
対策
情報漏洩を防ぐ対策をそれぞれ記述します。
対策①:オプトアウト手続きを行う
オプトアウト:許諾しない意思を示す行為
■ 概要
ChatGPTで入出力したデータはAIモデルの学習に利用されますが、ユーザーがオプトアウトの手続きを行うことで、データを学習させない設定を行うことができます。
※デフォルトだとオプトアウト設定をしていないので、入力情報は学習に使われます。
■ 設定方法
対策②:法人向けサービスの利用を考える
概要
会社員が使用する場合は、法人向けのGPTを使用する
■例
- OpenAIのAPIを使用しているため、入力情報が学習に使用されない
- chatGPTの使用の場合はデフォルトだと学習に利用される
- 入力情報を送る前に個人情報や機密情報のマスキング処理を行う機能が実装されている
対策③:データの一部を書き換えて入力する
概要
例えば、会社の情報やAPI Keyの情報は別の値に変更する
このテクニックをしても質問内容が変わるわけではないため、積極的に活用するべき
まとめ
chatGPTはオプトアウト設定をしないと学習に使われてしまうため、安易に機密情報を入力すると情報漏洩につながってしまう。また入力情報がサーバーに保存される際、ハッキングの恐れもある。
この2つの危険性から情報漏洩を防ぐには、
1. オプトアウト設定を活用する
2. 個人情報を始めから入力しない
この2点で対応できる
おわりに
「デフォルトだとオプトアウト設定をしていないので、入力情報は学習に使われる」というのは知りませんでした。ただ学習に使われるかもしれない恐怖感はあったので、個人情報を入れない工夫はしていました(危なかった...)。
自分が使用するツールのリスクを前もって理解するのって、大事なことですね。