1
1

AIの影の部分: リスクとその対策

Last updated at Posted at 2024-09-27

AIに潜むリスクとはなにか?

とても便利なAIですが、AIには様々なリスクがあります。
そのため使うことに抵抗を感じる方も多いのではないでしょうか。
実際にどのようなリスクがあり、対策法があるのか調べてみました。

潜んでるリスク

・情報漏洩:AIに入力された情報が第三者に漏れる可能性がある

・著作権:生成AIが他人の著作を基にコンテンツを生成し著作権侵害のリスクがある

・誤情報の拡散:AIが間違った情報を提供しその結果として誤解が生まれることがある

・プライバシーやセキュリティの問題:AI利用によって個人情報が不適切に扱われる可能性がある

他にも人種差別などの社会的問題にも影響があります。

今回は上の二つについて書こうと思います。

情報漏洩

AIは入力されたデータを処理する際に、そのデータが適切に管理されていないと、意図せず第三者に漏れるリスクがあります。

実際に合った事例

2023年にChatGPTでバグによってユーザーのチャット履歴のタイトルがほかのユーザーに表示される事態がありました。
このように、ユーザーが意図せずに漏洩するリスクはありますが具体的な対策は以下の通りです。

・API連携
・機密情報など個人情報などを入力しないようにする

API連携の利用

APIとはアプリケーション同士を連携するインターフェイスのことで、生成AIを自社のアプリケーションと連携させれば、APIを介して生成AIのサービスと通信を行うようになり生成AIに入力内容が学習されなくなります。
AIによっては入力情報を学習させない設定の導入も可能なモデルや設定があります。

実際ChatGPTには一時チャットという機能がありこれをオンにすることによって一時学習を防げます。

スクリーンショット 2024-09-27 095448.png

それでも心配の場合は機密情報など漏洩されたくない情報を入力せずに使える範囲で使用を検討するのも一つの手だと思います。

業務効率化AIのおすすめはこちら

著作権

生成AIは既存の著作物を学習データとして使用しています。

次に、生成AIによって生成されたコンテンツが既存の著作物を侵害するかどうかは
以下の3つの要件によって判断されます。

著作物性: 既存の画像やイラストが著作権によって保護されていること。創作的な表現である必要があります。

類似性: 既存の著作物と見た目や内容が似ていること。具体的には、どれだけ似ているか、どの部分が同じかを考慮します。

依拠性: 生成されたコンテンツが他の著作物を参考にして作られた場合。既存の著作物の影響を受けているか。

これらの要件が満たされる場合、著作権侵害が成立します。特に、類似性については「表現上の本質的な特徴」直接感得できる場合に認められます。

日本では、2019年に改正された著作権法により、AIがデータを学習する際、著作物を「情報解析」目的で使用する場合は、著作権者の許可が不要とされています。ただし、この使用はデータ解析などに限定されており、商業利用には制限があります。

実際に合った事例

2024年OpenAIとニューヨーク・タイムズの間で著作権問題が発生
ニューヨーク・タイムズは、OpenAIが許可なく数百万の記事を使用してAIモデルを訓練したと主張し、法的救済と知的財産保護のための商業契約を求めています。

・監査・フィルタリング

・許諾取得

監査・フィルタリング

作品が似てしまうことは影響を受けたものによっては、避けられないことですよね。
そのため都度生成されたコンテンツが既存の作品と似ていないか、データをチェックし問題を避けるようにしましょう。

他にも既存の作品を使用したい場合は必ず許可を取ることでトラブルを避けることができます。

最後に

いかがでしたか?仕事内容によっては使わないこともあるかもしれませんが、今後のAI利用に備えるためにも、リスクを理解しておくことが重要です。
もし生成AIを使ったプロジェクトに参画する際はデータチェックを怠らないように気を付けていきたいです。

最後までお読みいただきありがとうございます。
業務効率化AIのおすすめはこちら

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1