責任あるAI
責任あるAIとは
『AIが個人や集団に対して、有害な出力を生成したり、知的財産権を侵害したりするリスクを最小限に抑えること』
そのために、安全で倫理的な運用を確保するための 基準 を提供します。
PII・PHI
PII(個人識別情報)
- 名前、住所、電話番号、社会保障番号など、特定の個人を識別できる情報
- 広範な個人情報
PHI(保護された健康情報)
- 個人の健康状態、診療履歴、医療提供者の情報など、医療に関連する個人情報
- 医療分野に特化したもの
- PIIよりもPHIの方が厳しい業界基準を求められる
PII:Personally Identifiable Information
PHI:Protected Health Information
データレジデンシー
『ユーザーデータを保存する地理的な場所を指す』
要件
- データが 特定の地域や法的管轄内で保存・処理されることを義務付けられる 場合に発生します。
- データ保護法やプライバシー規制が厳しい国や地域において特に重要です。
例
EUではGDPRの規制があり、個人データがEU内で処理されることが求められる場合があります。
解釈可能性・説明可能性
解釈可能性
モデルの内部構造や予測結果が 直感的 に理解しやすいことを意味し、主に シンプルなモデル に適用される概念です。
説明可能性
複雑なブラックボックスモデル において、出力結果に 理由を説明できる 概念です。
生成AIセキュリティ・スコーピングマトリックス
『生成AIのワークロードに関連するセキュリティリスクを評価し、解決するために役立つツール』
ワークロード範囲の特定
生成AIアプリケーションが処理するデータやタスクの範囲を明確にします。
セキュリティ要件の整理
データ漏洩、アクセス制御、モデルの悪用など、特定のワークロードに関連するセキュリティリスクを把握し、優先的に対応すべき要件を定めます。
このマトリックスを使うことで、どのデータがどのように使用され、どの部分がリスクを伴うのかを具体的に把握し、適切なセキュリティ対策を実行できます。