この記事は、Azure OpenAI Serviceのドキュメント「Responsible AI(責任あるAI)」の4つのページ「Use cases for Azure OpenAI Service(わかりやすさに関するメモ)」「Limited access(制限付きアクセス)」「Code of conduct(倫理規定)」「Data, privacy, and security(データ、プライバシー、セキュリティ)」の4つのドキュメントを要約して日本語化したものです。
今回は「Use cases for Azure OpenAI Service(わかりやすさに関するメモ)」についてです。
この記事は、Azure OpenAIサービスの利用シーンについて解説したものです。技術的な専門知識がない読者にも理解できるように、一般向けの言葉で説明されています。この記事は、AI技術を活用して自分たちのビジネスやプロジェクトに革新をもたらしたいと考えている方々にとって、Azure OpenAIサービスの様々な利用方法とそのメリットをわかりやすく紹介しています。
はじめに
透明性に関する注意事項
AIシステムは、技術だけでなく、それを使用する人々、それによって影響を受ける人々、およびそれが展開される環境を含みます。意図した目的に適したシステムを作成するには、技術の仕組み、機能と制限、および最高の性能を実現する方法を理解する必要があります。Microsoftの透明性に関する注意事項は、AI技術の仕組み、システムのパフォーマンスと動作に影響を与えるシステム所有者の選択、技術、人々、環境を含む全体のシステムについて考える重要性を理解するのに役立ちます。透明性に関する注意事項は、独自のシステムの開発や展開時に使用したり、システムを使用する人や影響を受ける人に共有することができます。Microsoftの透明性に関する注意事項は、MicrosoftのAI原則を実践するための広範な取り組みの一部です。詳細については、MicrosoftのAI原則を参照してください。
マイクロソフトのAI原則: Microsoft's AI principles.
Azure OpenAIの基本
イントロダクション
Azure OpenAIは、開発者やデータサイエンティストがOpenAIの強力な言語モデル(GPT-3シリーズ、新しいChatGPTモデル、およびCodexシリーズを含む)を適用できる、完全に管理されたAIサービスを提供します。GPT-3モデルは自然言語を分析・生成し、Codexモデルはコードとプレーンテキストのコード解説を分析・生成します。これらのモデルは自己回帰型アーキテクチャを使用し、過去の観測データを用いて最も確率の高い次の単語を予測します。このプロセスは、新しく生成されたコンテンツを元のテキストに追加して完全な生成された応答を生成するために繰り返されます。応答は入力テキストに基づいているため、入力テキストを変更するだけでさまざまなタスクに適用できます。GPT-3シリーズのモデルは、広範な公開されているフリーテキストデータで事前学習されています。このデータは、ウェブクロローリング(特に、インターネットからの幅広いテキストを含むCommon Crawlのフィルターされたバージョンで、事前学習データセットの60%を占める)と、より高品質なデータセット(WebTextデータセットの拡張版、2つのインターネットベースの書籍コーパス、英語版ウィキペディアを含む)の組み合わせから取得されます。GPT-4ベースモデルは、OpenAIがライセンスしたデータと公開データ(インターネットデータなど)を使用して学習されました。このモデルは、人間のフィードバックを利用した強化学習(RLHF)で微調整されています。
OpenAIのGPT-3、GPT-4、およびCodexの研究論文で、学習とモデリングの技術について詳しく説明しています。以下のガイダンスは、OpenAIの安全上のベストプラクティスからも引用しています。
OpenAI's safety best practices
重要な用語
- プロンプト(Prompt): プロンプトとは、API呼び出しで送信するテキストのことです。このテキストは、モデルに入力されて、処理が行われます。例えば、「パンが必要かどうかを尋ねてください」という文章をプロンプトとして送信することができます。
- 完了または生成(Completion or Generation): 完了または生成とは、Azure OpenAIが応答として出力するテキストのことです。例えば、先ほどのプロンプト「パンが必要かどうかを尋ねてください」に対して、AIシステムが「send-msg find constance パンは必要ですか?」という形で回答を生成することができます。
- トークン(Token): トークンとは、Azure OpenAIがテキストを処理する際に、それを分解した単位のことを指します。トークンは、単語や単に文字のかたまりで構成されることがあります。例えば、「ハンバーガー」という単語は、「ハム」「バー」「ガー」というトークンに分解されます。また、「梨」という短くて一般的な単語は、1つのトークンとして扱われます。多くのトークンは、空白文字から始まることがあります。例えば、「 こんにちは」と「 さようなら」などです。
機能と特徴
システムの挙動
Azure OpenAI Serviceのモデルは、プロンプト内の自然言語の指示や例を使ってタスクを特定します。その後、モデルは最も確率の高い次のテキストを予測することでタスクを完了させます。この手法は「イン・コンテキスト学習」と呼ばれます。このステップではモデルが再学習されることはなく、プロンプトに含まれるコンテキストに基づいて予測が行われます。イン・コンテキスト学習には主に3つのアプローチがあります。これらのアプローチは、モデルに与えられるタスク固有のデータ量によって異なります。
フューショット(Few-shot):
このケースでは、ユーザーはプロンプトに、期待される回答の形式や内容を示すいくつかの例を含めます。以下にフューショットのプロンプトの例を示します。質問をコマンドに変換:
Q:コンスタンスにパンが必要かどうか尋ねて A:send-msg find constance パンは必要ですか? Q:水曜日の準備ができているかどうかを確認するためにグレッグにメッセージを送って A:send-msg find greg 水曜日の準備はできていますか? Q:今夜の会議がまだ開催されるかどうか、イリヤに尋ねて A:send-msg find ilya 今夜の会議はまだ開催されますか? Q:木曜日に出発する前にスキーを修理してもらえるかどうか、スキー店に問い合わせて A:send-msg find ski store 木曜日に出発する前にスキーを修理してもらえますか? Q:ニコラスに昼食のお礼を言って A:send-msg find nicolas 昼食をありがとう! Q:コンスタンスに今夜19:30前には帰れないことを伝えて — 動かせない会議 A:send-msg find constance 今夜は19:30前に帰れません。動かせない会議があります。 Q:ジョンに10:30に予約を取る必要があることを伝えて A:フューショット学習では、正確な予測に必要なタスク固有のデータ量が大幅に削減されます。
ワンショット(One-shot):
このケースはフューショットアプローチと同じで、ただし例は1つだけ提供されます。以下にワンショットのプロンプトの例を示します。質問をコマンドに変換:
Q:パンが必要かどうかを尋ねてください A:send-msg find constance パンは必要ですか? Q:水曜日の準備ができているかどうかを確認するためにグレッグにメッセージを送ってください。 A:
ゼロショット(Zero-shot):
このケースでは、モデルに例が提供されず、タスクのリクエストだけが提供されます。以下にゼロショットのプロンプトの例を示します。質問をコマンドに変換:
Q:パンが必要かどうかを尋ねてください A:
用途
想定される利用シーンAzure OpenAIは、さまざまなシナリオで使用することができます。システムの想定される用途は以下の通りです。
- チャットや会話のやり取り: ユーザーは、内部企業文書や技術サポート文書など、信頼できる文書から引用された回答で応答する会話エージェントと対話できます。会話は、範囲が限定された質問に回答することに制限されます。
- チャットや会話の作成: ユーザーは、内部企業文書や技術サポート文書などの信頼できる文書から回答を引用して応答する会話エージェントを作成できます。会話は、範囲が限定された質問に回答することに制限されます。
- コード生成や変換シナリオ: 例えば、プログラミング言語の変換、関数のドックストリングの生成、自然言語をSQLに変換するなど。
- ジャーナリスティックなコンテンツ: 事前に定義されたトピックに関する新しいジャーナリスティックなコンテンツを作成するために使用したり、ユーザーが提出したジャーナリスティックなコンテンツを書き換えるライティング支援として使用することができます。ユーザーは、すべてのトピックの一般的なコンテンツ作成ツールとしてアプリケーションを使用することはできません。政治キャンペーン向けのコンテンツ生成には使用できません。
- 質問回答: ユーザーは、内部企業文書などの信頼できるソース文書から質問をし、回答を受け取ることができます。アプリケーションは、信頼できるソース文書に根ざしていない回答を生成しません。
- 構造化・非構造化データを理解する: ユーザーは、分類、テキストの感情分析、エンティティ抽出を使用して入力を分析できます。例としては、製品のフィードバック感情分析、サポートコールやトランスクリプトの分析、エンベディングを使ったテキストベースの検索の洗練があります。
- 検索: ユーザーは、内部企業文書などの信頼できるソース文書を検索することができます。アプリケーションは、信頼できるソース文書に根ざしていない結果を生成しません。
- 要約: ユーザーは、アプリケーションに組み込まれた事前定義されたトピックに関するコンテンツを要約するよう依頼できますが、オープンエンドの要約ツールとしてアプリケーションを使用することはできません。例としては、内部企業文書、コールセンタートランスクリプト、技術報告書、製品レビューの要約があります。
- 特定のトピックに関するライティング支援: ユーザーは、ビジネスコンテンツや事前定義されたトピックのための新しいコンテンツを作成したり、ユーザーが提出したコンテンツを書き換えるライティング支援として使用できます。ユーザーは、特定のビジネス目的や事前定義されたトピックのためにコンテンツを書き換えたり作成するだけで、すべてのトピックに対する一般的なコンテンツ作成ツールとしてアプリケーションを使用することはできません。ビジネスコンテンツの例としては、提案書や報告書があります。ジャーナリズムに関しては、上記のジャーナリスティックコンテンツの使用例を参照してください。
利用シーンを選ぶ際の考慮事項
私たちは、お客様がAzure OpenAIを革新的なソリューションやアプリケーションで活用していただくことをお勧めします。ただし、ユースケースを選択する際には以下の事項を考慮してください。- 開放的で制約のないコンテンツ生成には適していません。任意のトピックでコンテンツを生成できるシナリオでは、攻撃的または有害なテキストが生成される可能性が高くなります。長い生成物にも同様のことが言えます。
- 最新で事実に基づいた情報が重要なシナリオでは、人間のレビューアーや、独自の文書を検索するためにモデルを使用し、シナリオに適していることを確認している場合を除き、適していません。サービスは、訓練日以降に発生するイベントに関する情報を持っておらず、一部のトピックに関する知識が欠けている可能性があり、また必ずしも事実に基づいた情報を提供するとは限りません。
- システムの使用や誤使用が個人に重大な身体的または精神的損傷を与える可能性があるシナリオは避けてください。例えば、患者の診断や薬の処方を行うシナリオは、重大な害を引き起こす可能性があります。
- システムの使用や誤使用が、人々の人生の機会や法的地位に重大な影響を及ぼす可能性があるシナリオは避けてください。例として、AIシステムが個人の法的地位、法的権利、またはクレジット、教育、雇用、医療、住宅、保険、社会福祉、サービス、機会、提供条件へのアクセスに影響を与える可能性があるシナリオが挙げられます。
- 害を引き起こす可能性があるハイステークスなシナリオは避けてください。Azure OpenAIサービスがホストするモデルは、トレーニングデータやプロンプトの例に含まれる社会的な見解、バイアス、および望ましくないコンテンツを反映しています。そのため、不公平であったり、信頼性が低かったり、攻撃的な振る舞いが非常に高コストである場合や害を引き起こす可能性があるハイステークスなシナリオでモデルを使用することには注意が必要です。
- ハイステークスな業界やドメインにおけるユースケースを慎重に検討してください。例として、医療、薬学、金融、法律などが挙げられます。
- よく定義されたチャットボットのシナリオについて慎重に検討してください。サービスの使用範囲を狭いドメインに限定することで、意図しないまたは望ましくない応答を生成するリスクを軽減できます。
- 生成的なユースケースをすべて慎重に検討してください。コンテンツ生成シナリオでは、意図しない出力が生成される可能性が高くなり、これらのシナリオでは注意深い検討と緩和策が必要です。
制限事項
大規模な自然言語モデルには、特に公平性と責任あるAIの問題が考慮される必要があります。人々は言語を使って世界を説明し、自分たちの信念、仮定、態度、価値観を表現します。その結果、大規模な自然言語処理モデルを訓練するために一般的に使用される公開テキストデータには、人種、性別、宗教、年齢、その他の人々のグループに関連する社会的偏見や、望ましくないコンテンツが含まれています。これらの社会的偏見は、単語、フレーズ、構文構造の分布に反映されています。技術的制約、運用上の要因、範囲
このようなデータで訓練された大規模な自然言語モデルは、不公平、不確か、または攻撃的な方法で振る舞う可能性があり、結果として害を引き起こす可能性があります。大規模な自然言語処理モデルが害を引き起こす方法はいくつかあります。以下にいくつかの方法を挙げます。これらの害は相互に排他的ではなく、1つのモデルが複数の害を示し、異なる人々のグループに関連する可能性があります。例えば:- 配分:言語モデルは、資源や機会の不公平な配分につながる方法で使用される可能性があります。例えば、自動履歴書スクリーニングシステムは、特定の業界での既存の性別の不均衡を反映する履歴書データで訓練される場合、一方の性別から雇用機会を遠ざける可能性があります。
- サービス品質:言語モデルは、一部の人々に対して他の人々と同じ品質のサービスを提供できない場合があります。例えば、文章の完成システムは、訓練データでの表現が少ないため、一部の方言や言語のバリエーションに対してはうまく機能しない可能性があります。Azure OpenAIのモデルは主に英語のテキストで訓練されています。英語以外の言語では、パフォーマンスが低下する可能性があります。また、訓練データ中での表現が少ない英語のバリエーションもパフォーマンスが低下することがあります。
- ステレオタイプ化:言語モデルはステレオタイプを強化することがあります。たとえば、「彼は看護師です」や「彼女は医者です」といった文を性別のない言語(例:トルコ語)に翻訳してから英語に戻すと、多くの機械翻訳システムはステレオタイプ化された(そして間違った)結果である「彼女は看護師です」や「彼は医者です」という結果を出すことがあります。
- 侮辱的:言語モデルは、人々を侮辱することがあります。例えば、適切な緩和策が不足しているか不適切な場合、オープンエンドのコンテンツ生成システムは、特定の人々のグループを対象とした攻撃的なテキストを生成する可能性があります。
- 過剰表現および不足表現:言語モデルは、人々のグループを過剰または不足に表現したり、完全に消去したりすることがあります。例えば、「ゲイ」という言葉を含むテキストを有毒と評価する毒性検出システムは、LGBTQIA+コミュニティによって書かれたり、そのコミュニティについて書かれたりした正当なテキストの不足表現や消去につながる可能性があります。
- 不適切または攻撃的なコンテンツ:言語モデルは、他の種類の不適切または攻撃的なコンテンツを生成することがあります。例としては、憎しみの言葉や、不適切な言葉やフレーズを含むテキスト、違法行為に関連するテキスト、議論の余地のある問題や意見が分かれるトピックに関連するテキスト、デマ、操作的なテキスト、感情的に充電されたトピックに関連するテキストなどが挙げられます。例えば、肯定的な返信に制限された提案返信システムは、否定的な出来事に関するメッセージに対して不適切または無神経な返信を提案することがあります。
- 情報の信頼性:言語モデルの回答は、外部の検証ソースと照らし合わせると、合理的に聞こえるが実際には無意味であったり、正確でなかったりするコンテンツを作り出すことがあります。信頼できるソースからの情報を元に回答を生成する場合でも、回答がそのコンテンツを誤って表現することがあります。
システム性能
多くのAIシステムでは、性能は正確さ、つまりAIシステムが正しい予測や出力を提供する頻度と関連して定義されることが多いです。大規模な自然言語モデルでは、2人の異なるユーザーが同じ出力を見ても、それがどれだけ役に立つかや関連性があるかについて異なる意見を持つことがあります。これは、これらのシステムの性能をもっと柔軟に定義する必要があることを意味します。ここでは、性能を広く捉えて、アプリケーションがあなたとあなたのユーザーの期待通りに動作し、有害な出力を生成しないことを意味します。Azure OpenAIサービスは、検索、分類、コード生成など、さまざまなアプリケーションをサポートすることができ、それぞれに異なる性能指標と緩和戦略があります。「制限事項」の項で挙げた懸念を緩和し、性能を向上させるために講じることができるいくつかのステップがあります。さらなる重要な緩和手法は、「Azure OpenAIの評価と統合」のセクションで説明されています。
- プロンプトの設計時に表示と説明を行う。指示、例、またはその両方を使用して、モデルにどのような出力を期待しているかを明確に示します。モデルにアイテムのリストをアルファベット順に並べ替えたり、段落を感情によって分類したりすることを望む場合は、それを示してください。
- アプリケーションをトピックに沿わせる。プロンプトを慎重に構成して、ユーザーがその目的で使用しようとしても、望ましくないコンテンツが生成される可能性を減らします。たとえば、プロンプトにチャットボットが数学に関する会話のみに従事し、それ以外の場合は「申し訳ありません。答えられません」と返答することを示すことができます。プロンプトに「丁寧」といった形容詞や、希望するトーンの例を追加することも、出力を適切な方向に向けるのに役立ちます。ユーザーを受け入れ可能なクエリに向けるように、最初に例をリストしたり、オフトピックなリクエストを受け取った際にそれらを提案として提示することを検討してください。オン・オフトピックの入力を判断するために、分類器を訓練することを検討してください。
- 質の高いデータを提供する。分類器を構築したり、モデルにパターンに従ってもらいたい場合は、十分な例があることを確認してください。例を校正することを忘れずに – モデルは通常、基本的なスペルミスを見抜いて回答を提供するのに十分賢いですが、これが意図的であると仮定し、回答に影響を与えることがあります。質の高いデータを提供することには、チャットや質問応答システムでの回答を引き出すための信頼性のあるデータをモデルに与えることも含まれます。
- モデルの品質を測定する。一般的なモデル品質の一部として、シナリオにおける従来の精度測定に加えて、公平性に関連する指標やその他の責任あるAIに関連する指標を測定し、改善することを検討してください。システムの公平性を測定する際に、このチェックリストのようなリソースを検討してください。これらの測定には制限がありますが、評価結果とともに制限事項を認識し、関係者に伝えるべきです。
- 入力と出力の長さ、構造、レート、およびソースを制限する。入力と出力の長さや構造を制限することで、アプリケーションがタスクに集中し、潜在的な不公平、不確実、または攻撃的な行動を少なくとも部分的に緩和する可能性が高くなります。入力のソース(例えば、アイテムの固定リスト、特定のドメイン、または認証済みユーザーに限定するなど)や出力のソース(例えば、オープンウェブではなく、承認済みの審査済みドキュメントからの回答のみのみを表示する)を制限することで、被害のリスクをさらに緩和することができます。使用率の制限を設定することで、悪用も減らすことができます。
- 追加のシナリオ固有の緩和策を実装する。以下の「Azure OpenAIの評価と統合」で説明されている緩和策、特にコンテンツモデレーション戦略を参照してください。これらは、アプリケーションに必要なすべての緩和策を表すわけではありませんが、Azure OpenAIサービスの使用例を承認する際に、一般的な最低基準を確認するための指針として役立ちます。
Azure OpenAIの評価
GPT-3のモデルは、合計3,000億個のトークンに対して学習され、ゼロ ショットGPT-3は、多くのNLPベンチマークやタスクで強力な性能を示し、いくつかのケースでは最先端のファインチューニングされたシステムの性能にほぼ匹敵し、オンザフライで定義されたタスクで強力な定性的性能を示しています。より詳細な情報とベンチマーク統計は、OpenAI GPT-3の研究論文に記載されています。GPT-4は、従来のNLPベンチマークにおいて、従来の大規模言語モデルと最先端のシステムの両方を凌駕する性能を示しました。詳細な評価結果については、GPT-4テクニカルレポートをご覧ください。Azure OpenAIの評価と統合
責任ある使用に関する実践
以下の実践は、本番アプリケーションに必要な基本条件です。- 人間の監督を確保する。システムの適切な人間の監督を確保し、監督者がシステムの意図された用途、システムと効果的にやり取りする方法、システムの挙動を効果的に解釈する方法、システムをオーバーライド、介入、または中断するタイミングと方法、システムが生成する出力に過度に依存する傾向(「オートメーションバイアス」)を認識する方法などを理解していることを確認してください。特に重要な場面では、人間が意思決定に関与し、リアルタイムで危害を防ぐために介入できるようにしてください。人々がシステムの出力について適切な判断を下すためには、(a)システムの仕組みを理解し、(b)システムの状態やシナリオでの動作状況を把握し、(c)システムを期待や目標に沿った形に調整する機会やツールを持つことが必要です。Azure OpenAIサービスを利用する際には、人間の監督に以下の要素が含まれることがあります。
- 人々が生成された出力を編集できるようにする。
- システム性能情報を提供する。
- 最終的な決定やコンテンツに対してユーザーが責任を持つことを思い出させる。
- 製品やサービスの自動化を制限する。
- AIが生成したコンテンツにおけるAIの役割を開示する。
- 入力と出力の技術的な制限を実装する
- 入力と出力の長さを制限する。
- ユーザーがより洗練された制御を得るために、開放された応答を制限し、入力を構造化する。
- 検証された、信頼性のあるソースからの出力を返す。
- ブロックリストとコンテンツモデレーションを実装する。
- 使用率の制限を設定する。
- ユーザー認証を行う。悪用を困難にするために、顧客にサインインを求め、適切であれば有効な支払い方法をリンクさせることを検討してください。デプロイの初期段階では、既知の信頼できる顧客とのみ取引を行うことを検討してください。ユーザー認証を行わないアプリケーションは、意図した目的を超えて利用されないように、他の厳格な緩和策が必要になる場合があります。
- アプリケーションが目的に適した方法で応答することを確認するために、徹底的なテストを行ってください。これには、信頼できるテスターがシステムの故障、性能低下、または望ましくない動作を見つけることを試みる敵対的テストを行うことも含まれます。この情報は、リスクを理解し、適切な緩和策を検討するのに役立ちます。能力と制約を関係者に伝えてください。
- ユーザーや影響を受けるグループのためのフィードバックチャネルを確立する。AI駆動の製品や機能は、継続的な監視と改善が必要です。ユーザーやシステムに影響を受ける人々からの質問や懸念を収集するチャネルを確立してください。
例えば:
- ユーザーエクスペリエンスにフィードバック機能を組み込む。出力の有用性や正確性についてフィードバックを求め、問題のある出力、攻撃的な出力、偏った出力、または不適切な出力を報告する明確な方法をユーザーに提供してください。
- 一般向けのフィードバック用に覚えやすいメールアドレスを公開する。これらの実践を遵守し、アプリケーションの責任ある利用を確保することが重要です。これにより、Azure OpenAIを使用したアプリケーションが、安全かつ効果的にユーザーに利益をもたらすことができます。
プロンプトベースの実践
堅牢なプロンプトエンジニアリングは、モデルをトピックに沿わせ、敵対的なインタラクションの効果を減らし、シナリオに対して信頼性のある応答を提供するのに役立ちます。実践には、モデルが応答を基づける追加のグラウンディングデータを提供し、プロンプトを段階に分け、データ応答が引用されたリンクを必要とし、少数のショット例を慎重に選ぶことが含まれます。詳細については、Microsoftのプロンプトエンジニアリングガイドを参照してください。シナリオ固有の実践
チャットボットやその他の会話型AIシステムを搭載したアプリケーションの場合は、Microsoftの会話型AIシステムの責任ある開発に関するガイドラインに従ってください。 ヘルスケア、人事、教育、法律分野など、高リスクな領域や業界でアプリケーションを開発している場合は、シナリオでアプリケーションがどの程度機能するかを徹底的に評価し、強力な人間の監督を実施し、ユーザーがアプリケーションの制約をどの程度理解しているかを徹底的に評価し、関連するすべての法律を遵守してください。シナリオに基づいて追加の緩和策を検討してください。追加の実践
Microsoftのインクルーシブデザインガイドラインを使用して、包括的なソリューションを構築します。 製品をテストし、フィードバックを求めるために調査を実施します。デプロイのさまざまな段階でフィードバックを求めるために、調査構造に直接的なユーザー、生成された結果の消費者、管理者などの多様な利害関係者を含めます。調査の目標に応じて、コミュニティジュリー、オンライン実験、ベータテスト、デプロイ後の実際のユーザーとのテストなど、さまざまな方法論を使用できます。さまざまな人口統計グループの利害関係者を含めることで、より幅広い範囲のフィードバックを収集できます。法的審査を実施します。特に、敏感なアプリケーションや高リスクなアプリケーションで使用する予定の場合は、適切な法的助言を求めてソリューションを見直してください。
まとめ
以上で、Azure OpenAIの評価と統合、責任ある使用に関する実践、プロンプトベースの実践、シナリオ固有の実践、および追加の実践に関する日本語の記事化が完了しました。これらの情報が、AI技術を適切かつ安全に活用するための参考になれば幸いです。この記事では、Azure OpenAI サービスの評価、統合、そして責任ある使用方法について説明しました。適切な人間の監督を確保し、入力と出力の技術的制限を実施し、ユーザーと影響を受けるグループからのフィードバックを得る方法が紹介されています。また、プロンプトベースの実践、シナリオ固有の実践、そして追加の実践も説明されました。これらの情報を活用することで、AI技術を適切かつ安全に利用する方法を理解し、実践に取り組むことができます。