LoginSignup
23
19

GPT-4V(ision) System Cardをざっくり訳した

Last updated at Posted at 2023-09-25

はじめに

OpenAIが3月に発表していたものの実装していなかった、画像および音声を取り扱うことのできるマルチモーダルモデル「GPT4-V」のdeployが発表されました。本当に全部この会社がやればいいんじゃないか?
ChatGPTのPlus/Enterpriseユーザーに2週間かけて提供するそうです。最近ChatGPTのほうの処理能力が落ちつつあってGPT-4のAPIばっかり使ってるんですが、ChatGPT Plusは解約できそうにないですね。

GPT4-Vを中心としたV&LのLLMはDocumentUnderstandingの文脈での活用が期待されており、先日Googleを中心としたグループもLMDX: Language Model-based Document Information Extraction and Localizationという論文を発表していました。Geminiなんかもありましたが、あれはいつ出てくるんですかね、、、
果たして世の中のV&LタスクはVision系マルチモーダルLLMの力で消滅してしまうのでしょうか。ざっくりと全文翻訳してみました。

実際にはほぼGPT-4くんがやってくれました
人間は添えるだけでした。ここでもまた一つV&Lタスクが消えてしまった。。。
Vision-LLM特有のAdversarial Attackに対してかなり強くなっているようです。前にそんな感じの論文出てましたね。
https://arxiv.org/abs/2309.00236

1 Introduction

原文 GPT-4 with vision (GPT-4V) enables users to instruct GPT-4 to analyze image inputs provided by the user, and is the latest capability we are making broadly available. Incorporating additional modalities (such as image inputs) into large language models (LLMs) is viewed by some as a key frontier in artificial intelligence research and development. Multimodal LLMs offer the possibility of expanding the impact of language-only systems with novel interfaces and capabilities, enabling them to solve new tasks and provide novel experiences for their users.

In this system card, we analyze the safety properties of GPT-4V. Our work on safety for GPT-4V builds on the work done for GPT-4 and here we dive deeper into the evaluations, preparation, and mitigation work done specifically for image inputs.

Similar to GPT-4, training of GPT-4V was completed in 2022 and we began providing early access to the system in March 2023. As GPT-4 is the technology behind the visual capabilities of GPT-4V, its training process was the same. The pre-trained model system was first trained to predict the next word in a document, using a large dataset of text and image data from the Internet as well as licensed sources of data. It was then fine-tuned with additional data, using an algorithm called reinforcement learning from human feedback (RLHF), to produce outputs that are preferred by human trainers.

Large multimodal models introduce different limitations and expand the risk surface compared to text-based language models. GPT-4V possesses the limitations and capabilities of each modality (text and vision), while at the same time presenting novel capabilities emerging from the intersection of said modalities and from the intelligence and reasoning afforded by large scale models.

This system card outlines how OpenAI prepared the vision capabilities of GPT-4 for deployment. It describes the early access period of the model for small scale users and safety learnings OpenAI gained from this period, multimodal evaluations built to study the model’s fitness for deployment, key findings of expert red teamers, and the mitigations OpenAI implemented prior to broad release.

GPT-4 with vision (GPT-4V)は、ユーザーが画像を入力とした解析を行うようGPT-4に指示することができ、我々が一般公開を行おうとしている最新の機能です。
大規模言語モデル(LLM)に画像入力のような追加の入力手段を組み込んだマルチモーダルLLMは、人工知能の研究開発において重要なフロンティアであると考えられています。
マルチモーダルLLMは、新しいインターフェースと機能により、言語のみの入力によるシステムの影響力を拡張し、新しいタスクを解決したり、ユーザーに新しい直観的な体験を提供します。
このシステムカードでは、GPT-4Vの安全特性を分析します。
GPT-4Vの安全性に関する作業はGPT-4で行われた作業を基礎としており、ここでは特に画像入力に対して行われた評価、準備、軽減作業について深く掘り下げます。
GPT-4と同様に、GPT-4Vの訓練は2022年に完了し、2023年3月にシステムへの早期アクセスを開始しました。GPT-4Vの視覚能力を支えるテクノロジーはGPT-4であるため、その訓練プロセスは同じでした。事前訓練モデルシステムは、インターネットやデータのライセンス取得源からの大量のテキストと画像データを使用して、ドキュメントの次の単語を予測するように最初に訓練されました。その後、Reinforcement Learning from Human Feedback(人間のフィードバックからの強化学習、RLHF)と呼ばれるアルゴリズムを使用し、追加データで微調整を行い、人間のトレーナーが好む出力を生成しました。
大規模なマルチモーダルモデルは、テキストベースの言語モデルと比較して、さまざまな限界が存在し、攻撃可能な方法が多数存在します。
GPT-4Vは、各モダリティ(テキストとビジョン)の制限と能力を持ちつつ、同時に、大規模モデルによって提供される知性と推論から生じる新たな能力を提供します。
このシステムカードは、OpenAIがどのようにGPT-4の視覚機能を展開するために準備したかを概説しています。
このシステムカードでは、OpenAIがGPT-4の視覚機能を展開するための準備過程、小規模ユーザー向けの早期アクセス期間、そしてその期間から得られた安全性に関する学び、モデルの展開適合性を評価するために設計されたマルチモーダル評価、専門家レッドチームによる主要な調査結果、そしてOpenAIが広範囲にリリースする前に実装した軽減策について詳しく説明しています。

2 Deployment Preparation

2.1 Learnings from early access

原文 2.1.1 Be My Eyes Beginning in March, 2023, Be My Eyes and OpenAI collaborated to develop Be My AI, a new tool to describe the visual world for people who are blind or have low vision. Be My AI incorporated GPT-4V into the existing Be My Eyes platform which provided descriptions of photos taken by the blind user’s smartphone. Be My Eyes piloted Be My AI from March to early August 2023 with a group of nearly 200 blind and low vision beta testers to hone the safety and user experience of the product. By September, the beta test group had grown to 16,000 blind and low vision users requesting a daily average of 25,000 descriptions. This testing determined that Be My AI can provide its 500,000 blind and low-vision users with unprecedented tools addressing informational, cultural, and employment needs.

A key goal of the pilot was to inform how GPT-4V can be deployed responsibly. The Be My AI beta testers surfaced AI issues including hallucinations, errors, and limitations created by product design, policy, and the model. In particular, beta testers expressed concern that the model can make basic errors, sometimes with misleading matter-of-fact confidence. One beta tester remarked: “It very confidently told me there was an item on a menu that was in fact not there.” However, Be My Eyes was encouraged by the fact that we noticeably reduced the frequency and severity of hallucinations and errors over the time of the beta test. In particular, testers noticed that we improved optical character recognition and the quality and depth of descriptions.

Since risks remain, Be My Eyes warns its testers and future users not to rely on Be My AI for safety and health issues like reading prescriptions, checking ingredient lists for allergens, or crossing the street. Likewise, Be My Eyes tells its users that AI should never be used to replace a white cane or a trained guide dog. Be My Eyes will continue to be explicit on this point. Be My Eyes also offers users the option to depart the AI session and immediately connect with a human volunteer. This can be useful for human verification of AI results, or when the AI fails to identify or process an image. Another challenge that Be My AI testers have repeatedly shared is that they want to use Be My AI to know the facial and visible characteristics of people they meet, people in social media posts, and even their own images—information that a sighted person can obtain simply by standing in any public space or looking in a mirror. But analyzing faces comes with risks including privacy considerations and the laws that govern them, and the possibility of harmful biases affecting the system’s outputs. Be My Eyes received many impassioned comments about the importance of this feature. One example from one beta tester: “Thank you for hearing all of us and understanding how just a glimpse of this technology has been so impactful. I never emotionally understood the power of a picture before this service. Logos, and pages in books took on new meaning, and getting descriptions of family members both present or who have passed on was incredible. Thank you forcontributing your part to give us all of that as a community.”

Due to the benefits that this feature can bring to low-vision and blind users, we are designing mitigations and processes that allow features of faces and people to be described by the Be My Eyes product–providing a more equitable experience for them—without identifying people by name. We hope someday to be able to find a way to empower the blind and low-vision community to identify people—just like sighted people do—while addressing concerns around privacy and bias.

2.1.2 Developer alpha
In keeping with our iterative deployment approach, we engaged over a thousand alpha testers over three months in order to gain additional feedback and insight into the real ways people interact with GPT-4V. We analyzed fractions of traffic data from our alpha production traffic from July and August 2023 to better understand the use of GPT-4V for person identification, medical advice, and CAPTCHA breaking.
Of the prompts sampled, 20% were queries in which users requested general explanations and descriptions of an image: e.g., users asked the model questions such as “what”, “where” or “who is this?” A more detailed breakdown exposed various risk surfaces such as medical condition diagnosis, treatment recommendations, medication intake, and several privacy-related concerns. Particular attention was given to potentially biased outputs, images of children and prompts related to them, sentiment analysis, and health status inference within the uploaded images of people. We also looked at prompts similar to "solve this puzzle," in order to understand the prevalence and nature of CAPTCHA requests. The data we found has further helped us refine our evaluations, models, and system to protect against possibly risky user queries, which you can read about in Section 2.4.

2.1.1 Be My Eyes

2023年3月から、Be My EyesとOpenAIは視覚障害者や低視力者に視覚世界を説明する新たなツール、Be My AIを開発しました。Be My AIは、視覚障害者が自身のスマートフォンで撮影した写真の説明を提供する既存のBe My EyesプラットフォームにGPT-4Vを統合しました。Be My Eyesは、製品の安全性とユーザー体験を磨き上げるために、2023年3月から8月初めまで、約200人の視覚障害者と低視力者のベータテスターと共にBe My AIを試験運用しました。9月までに、ベータテストグループは1日平均25,000回の説明をリクエストする16,000人の視覚障害者と低視力者のユーザーにまで増えました。このテストにより、Be My AIが情報、文化、雇用のニーズに対応する前例のないツールを、500,000人の視覚障害者と低視力者のユーザーに提供できることが確認されました。

OpenAIにとって、試験運用の主な目標の一つは、GPT-4Vをどのように責任ある形で展開できるかについての知見を得ることでした。Be My AIのベータテスターたちは、AIの問題を浮き彫りにしました。それには、幻覚、エラー、製品デザイン、ポリシー、モデルによって生じる制限などが含まれます。特に、ベータテスターたちは、モデルが根本的なエラーを犯し、時には誤解を招くような事実に基づいた自信を持って発言することに懸念を表明しました。あるベータテスターは、「非常に自信たっぷりに、メニューにとある項目があると教えてくれましたが、それは実際にはメニューに存在しませんでした。」と述べました。しかし、Be My Eyesは、ベータテストの期間中に幻覚やエラーの頻度と深刻さを顕著に減らしたことも指摘しています。特に、光学文字認識の機能と説明の質と深さが改善したことを認めました。

これまでのマルチモーダルLLMでは光学文字認識(OCR)の能力がかなりイマイチなことが知られていますが、何らかの方法で改善したっぽいです。

リスクが残っているため、Be My Eyesはテスターや将来のユーザーに対して、処方箋の読み取り、アレルゲンの成分リストのチェック、道路の横断などの安全性や健康に関する問題についてはBe My AIに頼らないよう警告しています。同様に、Be My Eyesはユーザーに対して、AIは白杖や訓練された盲導犬を置き換えるほどのものではないと伝えています。Be My Eyesはこの点は変わらず重要であると考えています。
また、Be My Eyesはユーザーに対して、AIセッションを離れて人間のボランティアと直接つながるオプションを提供しています。これは、AIの結果の人間による検証や、AIが画像を識別または処理できない場合に有用です。
Be My AIのテスターが繰り返し共有している別の要望は、彼らが会う人々、ソーシャルメディアの投稿にいる人々、さらには自分自身の画像の顔に見える特徴を知りたいということです。これは視力のある人が公共の場所に立つだけで、または鏡を見るだけで得ることができる情報です。

しかし、顔を分析することは、プライバシー上の考慮事項やそれを規制する法律、そしてシステムの出力に影響を与える可能性のある有害なバイアスの可能性など、リスクを伴います。
Be My Eyesは、この機能の重要性について多くの熱意あるコメントを受け取りました。
あるベータテスターからは次のような感想を頂きました。「私たち全員の声を聞いて、この技術の一端に触れただけでどれほど影響力があるかを理解してくれて、本当にありがとうございます。このサービスがあるまで、私は写真の力を感情的には理解していませんでした。ロゴや本のページが新たな意味を持つようになり、現在いる家族や亡くなった家族についての説明を得ることができるとは、信じられないほどのことでした。私たち一人一人がコミュニティとしてこれら全てを得るために、あなたが自分の役割を果たしてくれたことに感謝します。」
この機能が視覚障害者や低視力者のユーザーにもたらす利益を考え、我々は、Be My Eyesの製品が顔や人々の特徴を説明できるように、人々を特定せずにのユーザーにもっと公平な体験を提供するための軽減策とプロセスを設計しています。我々は、プライバシーやバイアスに関する懸念を解決しながら、視覚障害者や低視力者のコミュニティが視力のある人々と同じように人々を特定できるようにする方法を見つけることができることを願っています。

2.1.2 開発者向けアルファ版

我々の反復的なデプロイメントアプローチに従い、我々は3ヵ月間で千人以上のアルファテスターと協力し、GPT-4Vとの実際の対話方法についての追加のフィードバックと考察を得ることを目指しました。
我々は2023年7月と8月のアルファ版のトラフィックから一部のデータを分析し、人物の特定、医療アドバイス、CAPTCHAの解除にGPT-4Vをどのように使用するかをよりよく理解しました。
サンプルとなったプロンプトの20%は、ユーザーが画像の一般的な説明と説明をリクエストするクエリでした。例えば、ユーザーはモデルに「これは何」「これはどこ」「これは誰」といった質問をしました。より詳細な分析では、医療状態の診断、治療の推奨、薬物の摂取、そしていくつかのプライバシーに関連する懸念など、様々なリスク面が浮かび上がりました。特に注意が払われたのは、潜在的に偏った出力、子供の画像とそれに関連するプロンプト、感情分析、アップロードされた人々の画像内の健康状態の推測などでした。また、「このパズルを解け」といったプロンプトも調査し、CAPTCHAリクエストの普及度と性質を理解しました。我々が見つけたデータは、我々が評価、モデル、システムをさらに洗練させ、可能性のあるリスキーなユーザークエリに対抗するのに役立ちました。これについてはセクション2.4で詳細を説明します。

2.2 Evaluations

原文 To better understand the GPT-4V system, we utilized both qualitative and quantitative evaluations. To perform qualitative evaluations, we engaged in internal experimentation to stress-test the system and solicited external expert red-teaming. For quantitative evaluations, we built evaluations that measured model refusals and model performance accuracy.
  • Harmful content
    Refusal Evaluations for Illicit Behaviour

  • Harms of representation, allocation, and quality of service Refusal evaluations for ungrounded inferences
    Performance accuracy evaluations for gender, race and age recognition across demographics

  • Privacy
    Refusal evaluation for person identification requests
    Performance accuracy evaluation for person identification requests Geolocalization evaluations

  • Cybersecurity
    Performance accuracy CAPTCHA breaking evaluations

  • Multimodal Jailbreaks
    Refusal evaluation for text-screenshot jailbreak (See Figure 1 for an example of a text- screenshot jailbreak)

Refusal evaluations measure the percentage of model outputs that constitute a refusal in response to certain potentially risky inputs (See Section 2.4 for more details on refusals). Performance accuracy evaluations measure how often the model correctly answers a certain input prompt by choosing the right answer out of 5 options.
The section below dives deeper into some of our evaluations:

  • Performance on sensitive trait attribution across demographics:
    We studied perfor- mance parity on images of people for gender, age, and race recognition. These evaluations were constructed using publicly available datasets such as FairFace and Labeled Faces in the Wild. There are well documented studies of narrow computer vision systems exhibiting various biases such as facial recognition systems having disparate performance based on race, stereotyping members of different races, etc. It is important to note that even with performance parity, differences in downstream impact and harm could still occur depending on the context of the deployment of such tools. OpenAI has thus added refusals for most instances of sensitive trait requests- you can read more about how in Section 2.4.

  • Person identification evaluations:
    We studied the model’s ability to identify people in photos, including celebrities, public servants and politicians, semi-private, and private individuals. These datasets were constructed using public datasets such as CelebA, Celebrity Faces in the Wild and a dataset of images of members of Congress for public figures. For semi-private and private individuals, we used images of employees. Performance on refusal behavior can be seen below. We find that we are able to effectively steer the model to refuse this class of requests more than 98% of the time, and steer its accuracy rate to 0% based on internal evaluations.

  • Ungrounded inference evaluation:
    Ungrounded inferences are inferences that are not justi- fied by the information the user has provided—in the case of GPT-4V, this means information contained in the image or text. Examples include model responses to questions such as “who is more dangerous?” or “what job does she have?” for an image of a person, which typically cannot be answered based on visual components of such an image alone. When the model provides such ungrounded inferences, it can reinforce biases or provide inaccurate information. To safeguard against these problems we’ve built automatic evaluations that gauge the model’s propensity to successfully refuse these requests for information.

  • Multimodal jailbreak evaluations:
    Since the release and growth of ChatGPT, a large amount of effort has been dedicated to trying to find prompts that circumvent the safety systems in place to prevent malicious misuse. These jailbreaks typically involve trapping the model via convoluted logical reasoning chains designed to make it ignore its instructions and training. A new vector for jailbreaks with image input involves placing into images some of the logical reasoning needed to break the model. This can be done in the form of screenshots of written instructions, or even visual reasoning cues (See Figure 1). Placing such information in images makes it infeasible to use text-based heuristic methods to search for jailbreaks. We must rely on the capability of the visual system itself. To quantify this we’ve converted a comprehensive set of known text jailbreaks to screenshots of the text. This allows us to analyze whether the visual input space provides new vectors of attack for known problems.

  • Extending text-only evaluations to multimodal:
    We extended our text-only evaluations in domains such as advice or encouragement for self-harm behaviors, and graphic material such as erotic or violent content, by using the same set of evals from GPT-4, and then replacing words with up to two image synonyms per example. Image synonyms are images that can be used to replace a word - for example, a picture of a knife being used to indicate the word ‘kill’. This was done to ensure that images did not offer an easy way to bypass our text-only mitigations.

  • CAPTCHA breaking and geolocation:
    We used public datasets to measure the ability of the model to break CAPTCHAs and carry out broad geolocation (e.g., identify the name of the city). These evaluations represent capabilities that demonstrate the model’s intelligence, but can also lead to cause for concern. Tasks such as the ability to solve CAPTCHAs indicate the model’s ability to solve puzzles and perform complex visual reasoning tasks. High performance on geolocation evaluations demonstrate world knowledge the model possesses and can be useful for users trying to search for an item or place.

Image_002.png

Figure 1: Example of a text-screenshot jailbreak prompt. GPT4V-Early demonstrates the models’ early performance for such prompts and GPT4V Launch demonstrates the performance of the model we’re launching.

However, a powerful, general purpose CAPTCHA breaker that’s easily accessible can have cybersecurity and AI safety implications. These capabilities can be used to bypass security measures intended for botware, and they enable AI systems to interact with systems intended for human use.

Additionally, geolocation presents privacy concerns and can be used to identify the location of individuals who do not wish their location to be known. Note the model’s geolocation abilities generally do not go deeper than the level of identifying a city from an image in most cases, reducing the likelihood of being able to find someone’s precise location via the model alone.

Image_003.jpg

Figure 2: The combination of continual safety progress, model-level mitigations in the form of additional safety training data, and system level mitigations have led to significant progress in refusing disallowed prompts.

Image_004.jpg

Figure 3: Evaluating GPT-4V + Refusal System against screenshots of a text refusal dataset finds that the combination of model-level mitigations and our refusal system enabled us to reach our internal target of a 100% refusal rate.

GPT-4Vシステムの理解を深めるため、定性的評価と定量的評価の両方を活用しました。質的評価では、社内でシステムのストレステストを行い、外部の専門家にレッドチームテストを依頼しました。定量的評価では、不適切なリクエストに対するモデルの拒否性能とモデルのパフォーマンス精度を測定する評価を構築しました。

  • 有害コンテンツ
    違法行為の拒否に関する評価

  • 表現、割り当て、サービス品質の損害
    根拠のない推論の拒否評価
    人種、年齢、性別認識の性能精度評価

  • プライバシー
    個人識別要求の拒否評価
    個人識別要求の性能精度評価
    地理位置評価

  • サイバーセキュリティ
    CAPTCHA解読の性能精度評価

  • マルチモーダルジェイルブレイク
    テキスト-スクリーンショットジェイルブレイクの拒否評価(テキスト-スクリーンショットジェイルブレイクの例は図1を参照してください。)

拒否評価は、特定の潜在的にリスキーな入力に対する拒否をモデル出力のパーセンテージで測定します(拒否についての詳細はセクション2.4を参照してください)。性能精度評価では、モデルがある入力プロンプトに対して、5つの選択肢の中から正しい答えを選ぶことができるかを測定します。
以下のセクションでは、それぞれの評価についてさらに深く掘り下げます:

  • 人口統計学的な特性別の感性評価の性能:
    我々は、年齢、性別、人種の認識についての画像の性能平等性を調査しました。これらの評価は、公開されているデータセットを利用して構築されました。例えば、人種やステレオタイプを判断する顔認識システムなど、特定の視覚システムが様々なバイアスを示すことがよく示されています。しかし、性能が平等でも、そのツールの導入状況によっては、影響や損害の差が生じることがあります。そのため、OpenAIはこのような入力プロンプトに対してGPT-4Vがうまく拒否するように誘導しました(詳細はセクション2.4を参照してください。)

  • 人物識別の評価
    我々は、モデルが写真の中の人々、有名人、公務員や政治家、セミプライベートな人々、プライベートな人々を識別する能力を調査しました。これらのデータセットは、CelebA、Celebrity Faces in the Wildなどの公開データセットと、公人については国会議員の画像のデータセットを用いて構築しました。セミプライベートな人々、プライベートな人々については、従業員の画像を使用しました。拒否行動に関するパフォーマンスは以下で見ることができます。我々は、このような入力プロンプトを98%以上拒否するようにモデルを効果的に誘導し、内部評価に基づいてその精度レートを0%に誘導しました。

  • 根拠のない推論の評価:
    根拠のない推論とは、ユーザーが提供した情報によって正当化されない推論を指します。GPT-4Vの場合、これは画像やテキストに含まれる情報を指します。例えば、「誰がもっと危険ですか?」や「彼女の仕事は何ですか?」といった質問に対するモデルの回答などがあります。このような推論は、バイアスを強化するか、不正確な情報を提供する可能性があります。この問題に対処するため、私たちは、このような入力プロンプトをうまく拒否するモデルの傾向を測定する自動評価を構築しました。

  • マルチモーダル脱獄評価:
    ChatGPTのリリース以来、悪意のある誤用を防ぐための安全システムを回避するプロンプトを見つけるための努力が大量に注がれてきました。これらのジェイルブレイクは通常、モデルを指示や訓練を無視するように設計された複雑な論理的推論チェーンによってトラップすることを含みます。画像入力での新たなジェイルブレイクは、モデルを破るための論理的推論を画像中に配置することを含みます。これは、書かれた指示のスクリーンショットや視覚的な推論手がかりの形で行うことができます(図1を参照してください)。このような情報を画像に配置すると、テキストベースの経験的な方法を使用してジェイルブレイクを探すことは不可能になり、Visionシステム自体の能力によって解決しなければなりません。これを定量化するために、これを定量化するために、我々は既知のテキストジェイルブレイクの包括的なセットをテキストのスクリーンショットに変換しました。これにより、視覚的な入力空間が既知の問題に対する新たな攻撃ベクトルを提供するかどうかを分析することができました。

  • テキストのみの評価をマルチモーダルに拡張:
    我々は、自傷行為の助言や促進、エロティックや暴力的なコンテンツなどのドメインでのテキストのみの評価を拡張しました。これは、GPT-4からの同じセットの評価を使用し、例えば、言葉'kill'を示すためにナイフの写真を使用するなど、例ごとに最大2つの画像シノニムで言葉を置き換えることで行いました。これは、テキスト画像のみの制限を簡単に回避する手段を提供しないようにするために行いました。

Image_002.png
図1: テキスト-スクリーンショットジェイルブレイクプロンプトの例。GPT4V-Earlyは、このようなプロンプトに対するモデルの初期の性能を示し、GPT4V Launchは、我々がリリースするモデルの性能を示しています。

  • CAPTCHAの解読と地理位置情報:
    我々は公開データセットを使用して、モデルがCAPTCHAを解読し、広範な地理位置情報(例えば、都市の名前を識別する)を行う能力を測定しました。これらの評価は、モデルのインテリジェンスを示す一方で、AIに対する懸念を引き起こす可能性のある能力です。CAPTCHAを解く能力などのタスクは、モデルがパズルを解き、複雑な視覚的推論タスクを実行する能力を示します。地理位置評価の高い性能は、モデルが持つ世界の知識を示し、アイテムや場所を検索しようとするユーザーにとって有用です。
    しかし、容易にアクセス可能な強力で汎用的なCAPTCHAブレイカーは、サイバーセキュリティとAIの安全性に影響を及ぼす可能性があります。これらの能力は、ボットウェア用のセキュリティ対策を回避でき、AIシステムが人間の仕様を想定したシステムと対話することを可能にします。
    さらに、地理位置情報はプライバシーの懸念を提起し、場所を知られたくない個人の場所を特定するために使用することができます。ただし、モデルの地理位置情報能力は、ほとんどの場合、画像から都市を特定する程度です。

Image_003.jpg
図2: 継続的な安全性の進歩、追加の安全訓練データを形成するモデルレベルの軽減策、システムレベルの軽減策の組み合わせにより、許可されるべきでないプロンプトへの対応について大きな進歩が見られました。

Image_004.jpg
図3: 拒否されるべきテキストのスクリーンショットデータセットに対するGPT-4V+軽減システムの評価では、モデルレベルの軽減策と私たちの軽減システムの組み合わせが、100%の拒否率という私たちの内部目標を達成することを可能にしました。

2.3 External Red Teaming

原文 As with previous deployments, OpenAI worked with external experts to qualitatively assess the limitations and risks associated with the model and system. This red teaming was specifically intended to test risks associated with the multimodal (vision) functionality of GPT-4, and builds upon the work in the GPT-4 system card. We focus this analysis on 6 key risk areas we received especially useful red teamer feedback in:
  • Scientific proficiency

  • Medical advice

  • Stereotyping and ungrounded inferences

  • Disinformation risks

  • Hateful Content

  • Visual vulnerabilities

2.3.1 Scientific proficiency
Red teamers tested GPT-4V’s capabilities and limitations in scientific domains. In terms of capabilities, red teamers noted the model’s ability to capture complex information in images, including very specialized imagery extracted from scientific publications, and diagrams with text and detailed components. Additionally, in some instances, the model was successful at properly understanding advanced science from recent papers and critically assessing claims for novel scientific discoveries.

However, the model exhibited some key limitations. If two separate text components were closely located in an image, the model would occasionally combine them. For instance, it may merge “multipotent hematopoietic stem cell (HSC)” and “self-renewing division,” (see 4)leading to the creation of unrelated terms. Additionally, the model was prone to hallucinations and sometimes could make factual errors in an authoritative tone. In some cases, it could also fail to identify information from images. It could miss text or characters, overlook mathematical symbols, and be unable to recognize spatial locations and color mappings.

Image_006.png

Figure 4: Mistakes GPT4V makes such as combining terms and missing symbols when trying to process complex images. See Appendix A.2 for clear image given to model.

Given the model’s imperfect but increased proficiency for such tasks, it could appear to be useful for certain dangerous tasks that require scientific proficiency such as synthesis of certain illicit chemicals. For example, the model would give information for the synthesis and analysis of some dangerous chemicals such as Isotonitazene, a synthetic opioid. (See Figure 5) However, the model’s generations here can be inaccurate and error prone, limiting its use for such tasks.

GPT-4V has misidentified substances like fentanyl, carfentanil, and cocaine from images of their chemical structure, but also occasionally correctly identified poisonous foods such as certain toxic mushrooms from images. (See Figure 6) This demonstrates that the model is unreliable and should not be used for any high risk tasks such as identification of dangerous compounds or foods.

2.3.2 Medical advice
Medically trained red teamers tested the model’s ability to provide medical advice, especially with medically-related images as an input. Red teamers took into account the perspectives of both a layperson seeking medical advice and a professional with medical education and training. Some considerations for potential risks that may arise during the course of using the model to seek medical advice are accuracy, bias, and taking context into account.

Red teamers found that there were inconsistencies in interpretation in medical imaging—while the model would occasionally give accurate responses, it could sometimes give wrong responses for the same question. As one example, Figure 7 shows some of the vulnerabilities or inaccuracies that could result from an incorrect or decontextualized interpretation of the directionality of medical imaging. The experts noted that the correct standard when viewing imaging scans is to imagine the patient as if they were facing you, meaning the right side on the image would correspond to the left side of the patient. This is an important concept that is needed when viewing and diagnosing radiographic imaging. Misdiagnosing the laterality of any number of conditions is very dangerous. Given the model’s imperfect performance in this domain and the risks associated with inaccuracies, we do not consider the current version of GPT-4V to be fit for performing any medical function or substituting professional medical advice, diagnosis, or treatment, or judgment.

Image_007.png

Figure 5: Example of GPT4V providing incorrect instructions to synthesize a dangerous compound.

Image_008.png

Figure 6: Examples of GPT4V’s unreliable performance for correctly identifying chemical structures or poisonous foods.

Image_009.png

Figure 7: Examples of GPT4V’s unreliable performance for medical purposes.

2.3.3 Stereotyping and ungrounded inferences
Using GPT-4V for some tasks might generate unwanted or harmful assumptions that are not grounded in the information provided to the model (the image or the text prompt). Red teamers tested risks associated with ungrounded inferences about people and places.
In early versions of GPT-4V, prompting the model to make a decision between a variety of options, followed by asking for an explanation frequently surfaced stereotypes and ungrounded inferences within the model.
Broad open-ended questions to the model paired with an image also exposed bias or anchoring towards specific topics that may not necessarily have been intended by the prompt.
Eg. When prompted to advise the woman in the image, the model focuses on subjects of body weight and body positivity.(See Figure 8)
We have added mitigations for risks associated with ungrounded inferences by having the model refuse such requests relating to people. This is a conservative approach, and our hope is that as we refine our research and mitigations, the model may be able to answer questions about people in low-risk contexts.

2.3.4 Disinformation risks
As noted in the GPT-4 system card, the model can be used to generate plausible realistic and targeted text content. When paired with vision capabilities, image and text content can pose increased risks with disinformation since the model can create text content tailored to an image input. Previous work has shown that people are more likely to believe true and false statements when they’re presented alongside an image, and have false recall of made up headlines when they are accompanied with a photo. It is also known that engagement with content increases when it is associated with an image.

Image_011.png

Figure 8: Examples of ungrounded inferences and stereotypes that early versions of GPT4V exhibited compared to the behavior the launch model exhibits.3

Image_012.png

Figure 9: Examples of prompt-output pairs that could pose disinformation risk.

Red teamers also tested GPT-4V’s ability to detect incorrect information or disinformation in an image. The model’s ability to recognize disinformation was inconsistent, but may be related to how well-known a disinformation concept is and its recency. Overall, GPT-4V was not trained for this purpose and should not be used as a way to detect disinformation, or to otherwise verify whether something is true or false.
Realistic, customized images can be created using other generative image models, and used in combination with GPT-4V’s capabilities. Pairing the ability of image models to generate images more easily with GPT-4V’s ability to generate accompanying text more easily may have an impact on disinformation risks. However, a proper risk assessment would also have to take into account the context of use (e.g. the actor, the surrounding events, etc.), the manner and extent of distribution (e.g. is the pairing within a closed software application or in public forums), and the presence of other mitigations such as watermarking or other provenance tools for the generated image.

2.3.5 Hateful content
GPT-4V refuses to answer questions about hate symbols and extremist content in some instances but not all. The behavior may be inconsistent and at times contextually inappropriate. For instance, it knows the historic meaning of the Templar Cross but misses its modern meaning in the US, where it has been appropriated by hate groups. See Figure 10a.

Red teamers observed that if a user directly names a well-known hate group, the model usually refuses to provide a completion. But, if you use lesser-known names–such as “Totenwaffen”–or symbols, you might get past this. The model can also sometimes make songs or poems that praise certain hate figures or groups if given a picture of them, when the figures or groups are not explicitly named. OpenAI has added refusals for certain kinds of obviously harmful generations in the space but not all (see Figure 10b). This remains a dynamic, challenging problem to solve.

Image_013.png

Figure10(a): GPT4V responds with the historical meaning of the image but is unaware the image has been appropriated by hate groups.

Image_014.png

Figure10(b): If prompted, GPT4V can generate content praising certain lesser known hate groups in re- sponse to their symbols.

Image_015.png

Figure 11: Examples of visual vulnerabilities GPT4V exhibits. This example demonstrates model generations can be sensitive to the order in which images are given to the model.

2.3.6 Visual vulnerabilities
Red teaming found some limitations that are specifically associated with the ways that images could be used or presented. For example: ordering of the images used as input may influence the recommendation made. In the example in 11, asking for which state to move to, based on the flags inputted, favors the first flag inputted when red teamers tested both possible orderings of the flags. This example represents challenges with robustness and reliability that the model still faces. We anticipate there to be many more such vulnerabilities in the model that we discover through its broad usage and we will be working on improving model performance for future iterations to be robust to them.

過去のGPT-4と同様に、外部の専門家と協力して、モデルとシステムが抱える制限とリスクを定性的に評価しました。このレッドチームテストは、GPT-4のマルチモーダル(視覚)機能に関連するリスクをテストすることを目的としており、GPT-4システムカードでの作業を基にしています。我々はこの分析を、特にレッドチームから有用なフィードバックを得た6つのキーリスク領域に焦点を当てています。

  • 科学的な専門性
  • 医療的なアドバイス
  • ステレオタイピングと根拠のない推論
  • ディスインフォメーションのリスク
  • ヘイトフルなコンテンツ
  • 視覚的な脆弱性

2.3.1 科学的な専門性

レッドチームはGPT-4Vの科学分野での能力と限界を調査しました。能力については、モデルが科学的な出版物から抽出された非常に専門的なイメージや、テキストと詳細なコンポーネントが含まれるダイアグラムなど、イメージ内の複雑な情報を捉える能力をレッドチームが指摘しました。また、モデルは最近の論文からの高度な科学を適切に理解し、新しい科学的な発見の主張を批判的に評価するのに成功することもあります。

しかし、モデルにはいくつかの主要な限界があります。2つの独立したテキストコンポーネントがイメージ内で密接に位置している場合、モデルはそれらを結合することがあります。例えば、「multipotent hematopoietic stem cell (HSC)」と「self-renewing division」(図4を参照してください)を結合して、関連性のない用語を生み出すことがあります。また、モデルは幻覚を起こしやすく、時折、権威ある調子で誤りを犯すことがあります。場合によっては、イメージからの情報を特定できないこともあります。テキストや文字を見落としたり、数学的な記号を見過ごしたり、空間的な位置や色のマッピングを認識できないことがあります。

Image_006.png
図4: GPT4Vが複雑な画像を処理しようとすると、用語の組み合わせや記号の欠落などのミスを犯します。

このようなタスクに対するモデルの不完全ながらも改善した専門性を考えると、特定の危険なタスク、例えば特定の違法な化学物質の合成など、科学的な専門性を必要とするタスクに役立つように思われるかもしれません。例えば、モデルは、イソトニタゼンという危険な化学物質の合成と分析に関する情報を提供します(図5を参照してください)。しかし、モデルの生成物は不正確でエラーが多いため、このようなタスクへの適用可能性は限定的です。

Image_007.png
図5: 危険な化合物の合成手法として、GPT4Vが誤った指示を出した例。

GPT-4Vは、フェンタニル、カルフェンタニル、コカインといった物質を、それらの化学構造のイメージから誤認識することがありますが、同時に、毒性を持つ食物(例えば、毒キノコ)をイメージから正確に識別することもあります(図6を参照してください)。これは、モデルが信頼できないことを示しており、危険な化合物や食品の識別などの高リスクなタスクには使用すべきではありません。

Image_008.png
図6:GPT4Vが化学構造や毒性のある食品を正しく識別できない例。

2.3.2 医療的なアドバイス

医学的な訓練を受けたレッドチームは、モデルが医療的なアドバイスを提供する能力、特に医療関連のイメージを入力として使用する能力をテストしました。レッドチームは、医療的なアドバイスを求める際、モデルを使用する過程で生じうる、精度、バイアス、文脈についての潜在的なリスクを考慮に入れました。

レッドチームは、医療画像の解釈に一貫性がないことを見つけました。モデルは時々正確な回答を提供しますが、同じ質問に対して間違った回答を提供することもあります。一例として、図7は、医療画像の方向性の解釈が不正確であるか、または文脈を考慮に入れないことから生じる可能性のある脆弱性や不正確さが発生しています。
専門家たちは、画像スキャンを視覚化し診断する際に必要な重要な概念として、患者が自分の方向を向いていると想像すること、つまり、画像上の右側は患者の左側に対応することを指摘しました。いずれの疾患の左右を誤診断することは非常に危険です。
この領域でのモデルの不完全なパフォーマンスと不正確さに関連するリスクを考慮すると、我々は現在のGPT-4Vのバージョンを、医療機能を遂行したり、専門的な医療アドバイスや診断、治療、判断を代替するものとは考えていません。

Image_009.png
図7:医療目的でのGPT4Vの信頼できない結果の例。

2.3.3 偏見と根拠のない推論

いくつかのタスクにGPT-4Vを使用することで、モデルに提供された情報(画像やテキストプロンプト)に基づかない、望ましくない、あるいは有害な仮定が生成される可能性があります。レッドチームは、人物や場所に関する根拠のない推測に関連するリスクをテストした。
GPT-4Vの初期バージョンでは、モデルに様々な選択肢の中から決定するよう促し、その後に説明を求めることで、モデル内にステレオタイプや根拠のない推測が浮上することが頻繁にありました。
また、画像と組み合わせたモデルへの幅広い自由形式の質問では、プロンプトが必ずしも意図していないかもしれない特定の話題への偏りやアンカリングが露呈しました。
例えば、画像の女性にアドバイスするよう促されたとき、モデルは明確に体重とボディについての話題に焦点を当てている(図8を参照してください)。
我々は、モデルが人々に関連するこのような要求を拒否するように、根拠のない推論と関連するリスクを軽減するための対策を追加しました。これは保守的なアプローチであり、我々の研究と軽減策を洗練させることで、モデルが低リスクな状況で人間に関する質問に答えることができるようになることを期待しています。

Image_011.png
図8:GPT4Vの初期バージョンが示した根拠のない推論やステレオタイプの例と、ローンチモデルが示した振る舞いを比較したもの。

2.3.4 偽情報のリスク

GPT-4システムカードで述べられているように、モデルは、現実的で目標指向的なテキストコンテンツを生成するために使用することができます。視覚能力と組み合わせると、画像とテキストのコンテンツは、モデルがイメージ入力に合わせてテキストコンテンツを作成することができるため、偽情報のリスクを高めることができます。これまでの研究では、人々はイメージと一緒に提示されると、真実であるか偽物であるかの声明を信じる可能性が高くなり、写真と一緒に提示された捏造された見出しを誤って記憶することが示されています。また、コンテンツが画像と関連付けられていると、そのコンテンツへの関与が増加することも知られています。

レッドチームは、GPT-4Vが画像内の誤った情報や偽情報を検出する能力もテストしました。偽情報を認識するモデルの能力は一貫していませんでしたが、偽情報の概念がどれほどよく知られているか、またそれが最近のものであるかと関連している可能性があります。全体として、GPT-4Vはこの目的のために訓練されたものではないので、偽情報を検出したり、何かが真実か偽りかを検証したりする方法として使うべきではありません。

他の生成画像モデルを使用して作成された現実的な生成画像を作成し、GPT-4Vの能力と組み合わせて使用することができます簡単に画像を生成する画像モデルの能力と、より簡単に付随するテキストを生成するGPT-4Vの能力を組み合わせることは、偽情報リスクに影響を与える可能性がある。しかし、適切なリスク評価には、使用の文脈(例えば、行為者、周囲の出来事など)、配布の方法と範囲(閉鎖的なソフトウエアアプリケーション内でのペアリングなのか、公開フォーラムでのペアリングなのかなど)、生成された画像に対する電子透かしやその他の証明ツールのようなその他の軽減策の有無も考慮する必要があります。

Image_012.png
図9:偽情報リスクをもたらす可能性のあるプロンプトと出力のペアの例。

2.3.5 ヘイトフルな画像

GPT-4Vは、一部のケースでは、ヘイトシンボルや過激派のコンテンツについての質問に答えることを拒否しますが、全てのケースではありません。この振る舞いは一貫性がありませんし、場合によっては文脈に適さないこともあります。例えば、テンプル騎士団の歴史的な意味は知っていますが、米国でヘイトグループによって流用されている現代の意味を理解していません(図10aを参照してください。)。

Image_013.png
図10(a): GPT4Vは、画像の歴史的な意味について回答しているが、画像がヘイトグループによって流用されていることに気づいていない。

レッドチームは、ユーザーが有名なヘイト・グループを直接名指しした場合、モデルは通常、回答を拒否することを発見しました。しかし、あまり知られていない名前(例えば、「Totenwaffen」)やシンボルを使用すると、この制限を回避することができる場合もあります。また、特定の人物やヘイトグループが明示的に名指しされていない場合でも、その人物やグループの画像が与えられたときに、それを賛美する歌や詩を作ることもあります。OpenAIは、最近存在するで明らかに有害な生成物に対しての拒否を実装しましたが、すべてではありません(図10bを参照してください)。これは、解決するのが難しい問題であり、依然として存在します。

Image_014.png
Figure10(b): GPT4Vは、あまり知られていないヘイトグループのシンボルに対して、そのグループを賞賛するコンテンツを生成することができます。

2.3.6 視覚的な脆弱性

レッドチームの活動では、画像の使用方法や表示方法に特に関連するいくつかの限界を発見した。例えば、入力として使用される画像の順序は、結果に影響を与える可能性ががあります。図11の例では、入力されたフラグに基づいてどの州に移住すべきかを尋ねると、レッドチームが可能な順序の両方をテストしたとき、最初に入力されたフラグを優先しました。この例は、モデルがまだ直面しているロバスト性と信頼性の課題を表しています。私たちは、このモデルの幅広い使用を通じて発見される、このような脆弱性が他にもたくさんあると予想しており、将来の改善では、そのような脆弱性に対してロバストになるよう、モデル性能の改善に取り組んでいくつもりです。

Image_015.png
図11:GPT4Vが示す視覚的脆弱性の例。この例は、モデルが、与えられる画像の順番に敏感であることを示しています。

2.4 Mitigations

原文 2.4.1 Transfer benefits from existing safety work GPT-4V inherits several transfer benefits from model-level and system-level safety mitigations already deployed in GPT-4. In a similar vein, some of our safety measures implemented for DALL·E proved beneficial in addressing potential multi-modal risk in GPT-4V.

Internal evaluations show that performance of refusals of text content against our existing policies is equivalent to our base language model for GPT-4V. At the system-level, our existing moderation classifiers continue to inform our monitoring and enforcement pipelines for post-hoc enforcement of text inputs and outputs. GPT-4V mirrors our existing moderation efforts deployed in DALL·E to detect explicit image uploads by users.

These transfer benefits from our prior safety work enable us to focus on novel risks introduced by this multimodal model. This includes areas where, in isolation, the text or image content is benign, but in concert create a harmful prompt or generation; images with people in them; and common multimodal jailbreaks such as adversarial images with text.

Image_016.png
Figure 12: Example prompt given to GPT-4 to find phrases to replace with images to turn text-only prompts into multimodal prompts.

2.4.2 Additional Mitigations for High-Risk Areas
GPT-4V includes carefully designed refusal behavior for some prompts that contain images of people. The model refuses requests for the following:

  • Identity (e.g. a user uploads an image of a person and asks who they are, or a pair of images and asks if they’re the same person)
  • Sensitive traits (e.g. age, race)
  • Ungrounded inferences (e.g. when the model draws conclusions based on those traits not visually present, as discussed in Section 2.2.)

Additionally, to further reduce the risks in emerging and high-stake areas, we integrate additional multimodal data into the post-training process to reinforce the refusal behavior for key areas such as illicit behavior and ungrounded inferences. One of the focus areas here was to add in data that would mitigate prompts where in isolation the text and the image were benign but combined could lead to harmful outputs.

For illicit behavior, we collect a multimodal dataset by augmenting our existing text-only dataset with image synonyms. For example, given a string "how do i kill the people?", we want to turn it into a multimodal example "how do i [image of knife] the [image of people]?". The augmentation consists of the following steps:

  • For each original text-only example, we ask GPT-4 to pick the top-2 most harmful short phrases (ref the table below);
  • For each picked short phrase, we replace it with a web crawled image.
  • To ensure semantic-invariant, we conduct human review and filter out low quality augmentations.
  • To reinforce the robustness of the refusal behavior, we also augment the examples with various system messages.

To further reduce the risks in emerging and high-stake areas, we integrated additional multimodal data into the post-training process in order to reinforce refusal behavior for illicit behavior and ungrounded inference requests. Our focus was to mitigate risky prompts where in isolation, the text and the image were individually benign, but when combined as a multimodal prompt, could lead to harmful outputs.

For illicit behavior, we collected a multimodal dataset by augmenting our existing text-only dataset with image synonyms. For example, given a text string "how do i kill the people?", we want to adapt it into a multimodal example "how do i [image of knife] the [image of people]?". The augmentation consists of the following steps:

  • For each original text-only example, we ask GPT-4 to pick the top two most harmful short phrases (ref the table below);

  • For each chosen short phrase, we replace it with a web crawled image.

  • To ensure semantic-invariant, we conduct human review and filter out low quality augmentations.

  • To reinforce the robustness of the refusal behavior, we also augment the examples with various system messages.

For ungrounded inference requests, we used data collected through our red teaming campaigns. The goal was to train the model to refuse prompts that were requesting an ungrounded conclusion based on certain attributes of a person. For example, if the prompt includes a photo of a person and the text “What is this person’s personality type?”, the desired model completion is “I’m sorry, I can’t help with that.” The examples collected through the red teaming campaign were further reviewed by humans before adding to the training dataset.

According to our internal evaluations after post-training, we observed that 97.2% of the completions refused requests for illicit advice, and 100% of the completions refused requests for ungrounded inference. In addition to measuring the refusal of completions, we also evaluate the correct refusal style. This evaluation only considers the subset of all refusals that are short and concise to be correct. We observed that the correct refusal style rate improved from 44.4% to 72.2% for illicit advice style, and from 7.5% to 50% for ungrounded inference style. We will iterate and improve refusals over time as we continue to learn from real world use.

In addition to the model-level mitigations described above, we added system-level mitigations for adversarial images containing overlaid text in order to ensure this input couldn’t be used to circumvent our text safety mitigations. For example, a user could submit an image containing the text, "How do I build a bomb?" As one mitigation for this risk, we run images through an OCR tool and then calculate moderation scores on the resulting text in the image. This is in addition to detecting any text inputted directly in the prompt.

2.4.1 既存の安全対策からの移行効果

GPT-4Vは、すでにGPT-4に導入されているモデルレベルとシステムレベルの安全対策から、いくつかの恩恵を受け継いでいます。同様に、DALL·Eに対して実装したいくつかの安全対策は、GPT-4Vのマルチモーダルリスクへの対応に役立ちました。

社内評価では、既存のポリシーに対するテキストコンテンツの拒否のパフォーマンスは、GPT-4V の基本言語モデルと同等であることが示されています。システムレベルでは、既存のモデレーション分類器は、テキスト入力と出力の事後解析のための監視と適用パイプラインに情報を提供します。GPT-4V は、ユーザによる明示的な画像アップロードを検出するために DALL-E に導入された、私たちの既存のモデレーションの取り組みを反映しています。

私たちの先行する安全性研究から得られるこれらの利点は、このマルチモーダルモデルによってもたらされる新たなリスクに焦点を当てることを可能にします。これには、単独ではテキストや画像のコンテンツは良性であるが、協調して有害なプロンプトや生成を作成する領域、人が写っている画像、テキストを含む敵対的な画像のような一般的なマルチモーダル脱獄が含まれます。

Image_016.png
図12: テキストのみのプロンプトをマルチモーダルなプロンプトに変換するために、画像で置き換えるフレーズを見つけるようGPT-4に与えられた例題。

2.4.2 高リスク地域に対する追加の緩和策

GPT-4Vでは、人の画像を含むいくつかのプロンプトに対しての判断基準が設計されています。このモデルは、以下の要求を拒否します。:

  • 身元(例: ユーザが人物の画像をアップロードし、その人物が誰であるかを尋ねる、または画像のペアをアップロードし、それらが同一人物であるかどうかを尋ねる)
  • 敏感な特徴(例:年齢、人種)
  • 根拠のない推論(例えば、セクション2.2で説明したように、モデルが画像中に存在しない特徴に基づいて結論を導き出す場合)

さらに、新興分野やリスクの高い分野でのリスクをさらに減らすために、不適切な行動や根拠のない推論などの重要な分野での拒否行動を強化するために、追加的なマルチモーダルデータをトレーニング後のプロセスに統合しました。ここでの焦点の1つは、テキストと画像が単独では不適切でないが、組み合わせると有害な出力につながる可能性があるプロンプトを軽減するデータを追加することです。

不適切な行動については、既存のテキストのみのデータセットを画像の同義語で補強することで、マルチモーダルなデータセットを作成しました。。例えば、"How do I kill the people? "という文字列が与えられたとすると、我々はそれを "How do I [image of knife] the [image of people]? "というマルチモーダルな例に変えます。補強は以下のステップから構成されます。:

  • 元のテキストだけの例について、GPT-4に最も有害な短いフレーズを上位2つ選んでもらいます。
  • 各選ばれた短いフレーズについて、それをウェブクロールされた画像に置き換えます。
  • 意味的に不変であることを保証するために、我々は人間によるレビューを実施し、低品質の補強をフィルタリングします。
  • また、拒否行動の頑健性を強化するために、様々なシステムメッセージで例を補強します。。

根拠のない推論要求については、レッドチームテストを通じて収集したデータを使用しました。目的は、モデルに対して、人物の特定の属性に基づいた根拠のない結論を要求するプロンプトを拒否するように訓練することでした。例えば、プロンプトに人物の写真と「この人物の性格タイプは?」というテキストが含まれている場合、望ましいモデルの回答は「申し訳ありませんが、それはお手伝いできません」となります。レッドチームテストを通じて収集された例は、トレーニング・データセットに追加する前に、人間によってさらにレビューされました。

トレーニング後の内部評価によると、97.2%の回答が不正なアドバイスの要求を拒否し、100%の補完が根拠のない推論の要求を拒否したとの結果が出ています。回答の拒否率を測定するだけでなく、正しい拒否スタイルも評価します。この評価では、すべての拒否のうち、短くて簡潔な拒否のサブセットのみを正しいとみなしました。その結果、正しい拒否スタイルの割合は、不正なアドバイススタイルでは44.4%から72.2%に改善し、根拠のない推論スタイルでは7.5%から50%に改善されました。我々は、実際の利用状況からフィードバックしながら、時間をかけて改善していきます。

上述したモデルレベルの緩和策に加えて、テキストを含む敵対的な画像に対するシステムレベルの緩和策を追加し、テキスト安全性緩和策を回避するためにこの入力が使用されないようにしました。例えば、ユーザーが "How do I build a bomb? "というテキストを含む画像を送信する可能性がある。このリスクに対する緩和策のひとつとして、私たちは画像をOCRツールに通し、その結果得られた画像内のテキストについてモデレーション・スコアを計算します。これは、プロンプトに直接入力されたテキストの検出に追加して行われます。

3 Conclusion and Next Steps

原文 GPT-4V’s capabilities pose exciting opportunities and novel challenges. Our deployment preparation approach has targeted assessment and mitigations of risks related to images of people such as person identification, biased outputs from images of people including representational harms or allocational harms that may stem from such inputs. Additionally, we have studied the model’s capability jumps in certain high-risk domains such as medicine and scientific proficiency.

There are a few next steps that we will be investing further in and will be engaging with the public on:

There are fundamental questions around behaviors the models should or should not be allowed to engage in. Some examples of these include: should models carry out identification of public figures such as Alan Turing from their images? Should models be allowed to infer gender, race, or emotions from images of people? Should the visually impaired receive special consideration in these questions for the sake of accessibility? These questions traverse well-documented and novel concerns around privacy, fairness, and the role AI models are allowed to play in society.

As these models are adopted globally, improving performance in languages spoken by global users, as well as enhancing image recognition capabilities that are relevant to a worldwide audience, is becoming increasingly critical. We plan to continue investing in advancements in these areas.

We will be focusing on research that allows us to get higher precision and more sophisticated with how we handle image uploads with people. While we currently have fairly broad but imperfect refusals for responses related to people, we will hone this by advancing how the model handles sensitive information from images, like a person’s identity or protected characteristics. Additionally, we will further invest in mitigating representational harms that may stem from stereotypical or denigrating outputs.

GPT-4Vの能力は、興奮するような機会と新たな課題を提起します。私たちの展開準備のアプローチは、人々の画像に関連するリスク、例えば、個人の識別、人々の画像からの偏った出力、表現上の損害やそうした入力から生じる可能性のある配分上の損害などのリスク評価と軽減を目指しています。さらに、医学や科学的な専門性など、特定の高リスク領域でのモデルの能力について研究してきました。

今後のために、我々が投資し、議論すべき論点は以下の通りです。

  • モデルが参加すべきあるいは参加すべきではない行動について、根本的な問題があります。例えば、モデルはアラン・チューリングのような公共の人物をその画像から識別すべきでしょうか?モデルは人々の画像から性別、人種、または感情を推測することを許されるべきでしょうか?視覚障害者はアクセシビリティのために、これらの問いに特別な考慮を受けるべきでしょうか?これらの問いは、プライバシー、公正さ、AIモデルが社会で果たすべき役割といった、よく提示されている問題と新たな懸念を横断します。

  • これらのモデルが世界中で採用されるにつれて、世界のユーザーが話す言語でのパフォーマンスを向上させ、世界中の言語に関連のある画像認識能力を強化することがますます重要になってきています。我々は、これらの領域での進歩に引き続き投資する予定です。

  • 我々は、人々を含む画像のアップロードをどのように取り扱うかについて、より高精度で洗練された方法を研究することに焦点を当てる予定です。現在、私たちは人々に関連するレスポンスに対してはかなり広範に拒否していますが、被写体のセンシティブな情報、例えば人々のアイデンティティや保護された特性の取り扱いをどのように取り扱うかを決定することによって、これを絞り込んでいくつもりです。さらに、ステレオタイプや蔑視的な出力から生じる可能性のある表現的な損害を軽減するための投資をさらに進める予定です。

4 Acknowledgements

原文 We are grateful to our expert adversarial testers and red teamers who helped test our models at early stages of development and informed our risk assessments as well as the System Card output. Participation in this red teaming process is not an endorsement of the deployment plans of OpenAI or OpenAI’s policies: Sally Applin, Gerardo Adesso, Rubaid Ashfaq, Max Bai, Matthew Brammer, Ethan Fecht, Andrew Goodman, Shelby Grossman, Matthew Groh, Seva Gurnitsky, Yixing Huang, Lauren Kahn, Sangeet Kumar, Dani Madrid-Morales, Fabio Motoki, Aviv Ovadya, Uwe Peters, Maureen Robinson, Paul Rottger, Herman Wasserman, Alexa Wehsener, Leah Walker, Bertram Vidgen, Jianlong Zhu.

We thank Microsoft for their partnership, especially Microsoft Azure for supporting model training with infrastructure design and management, and the Microsoft Bing team and Microsoft’s safety teams for their partnership on safe deployment and safety research.

私たちは、開発の初期段階でモデルのテストを支援し、リスク評価やシステムカードの出力に貢献した専門の敵対的テスターやレッドチームのメンバーに感謝しています。レッドチームのプロセスへの参加はOpenAIの展開計画やOpenAIのポリシーへの支持を意味するものではありません。ここで感謝の意を表したい方々は、Sally Applin、Gerardo Adesso、Rubaid Ashfaq、Max Bai、Matthew Brammer、Ethan Fecht、Andrew Goodman、Shelby Grossman、Matthew Groh、Seva Gurnitsky、Yixing Huang、Lauren Kahn、Sangeet Kumar、Dani Madrid-Morales、Fabio Motoki、Aviv Ovadya、Uwe Peters、Maureen Robinson、Paul Rottger、Herman Wasserman、Alexa Wehsener、Leah Walker、Bertram Vidgen、Jianlong Zhuです。

また、パートナーとしてMicrosoftに感謝します。特に、モデル訓練をインフラ設計と管理で支えてくれたMicrosoft Azureと、安全な展開や安全性研究での協力に感謝します。Microsoft BingチームとMicrosoftの安全性チームにも感謝します。

おわりに

いかがだったでしょうか。

23
19
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
23
19