AIの安全性に関するブレッチリー宣言が公開された。
The Bletchley Declaration by Countries Attending the AI Safety Summit
ChatGPT-4に和訳と要約をしてもらった。添削はしていないため精度は保証しない。必ず原文に当たること。
和訳
人工知能(AI)は膨大な世界的機会を提示している。それは人間の幸福、平和、繁栄を変革し、向上させる可能性を秘めている。これを実現するために、我々は、すべての人のために、AIが安全に、人間中心で、信頼性があり、責任を持って設計、開発、展開、使用されるべきであると確認する。経済成長、持続可能な開発、革新を促進し、人権と基本的自由を保護し、AIシステムに対する公衆の信頼と信用を育成するために、AIに関する国際社会の取り組みを歓迎する。
AIシステムは既に住宅、雇用、交通、教育、健康、アクセシビリティ、正義など、日常生活の多くの領域で展開されており、その使用は増加すると予想される。このため、AIの安全な開発とAIの変革的な機会を、我々の国々と世界的に包括的な方法で善意と共に利用する必要性を認識し、行動する独特な瞬間であると確認する。これには公共サービス、例えば健康、教育、食糧安全保障、科学、クリーンエネルギー、生物多様性、気候、人権の享受、国連の持続可能な開発目標達成に向けた取り組みの強化などが含まれる。
AIはまた、日常生活のそれらの領域を含む重大なリスクも提示する。このため、AIシステムの潜在的な影響を調査し、対処するための関連する国際的努力を歓迎し、人権の保護、透明性と説明可能性、公正、説明責任、規制、安全性、適切な人間の監督、倫理、バイアス緩和、プライバシーとデータ保護が対処される必要があると認識する。また、内容の操作や欺瞞的な内容を生成する能力から生じる予測不能なリスクの可能性にも注目する。これらの問題は非常に重要であり、我々はそれらに対処する必要性と緊急性を確認する。
「フロンティア」のAI、つまり、今日の最も先進的なモデルに匹敵する、あるいはそれを超える能力を持つ、幅広いタスクを実行できる高能力の一般目的AIモデル、および危害を引き起こす可能性がある関連する特定の狭いAIには、特に安全上のリスクが生じる。意図的な悪用や、人間の意図との整合に関連する意図しない管理の問題から、重大なリスクが生じる可能性がある。これらの問題の一部は、それらの能力が完全には理解されておらず、予測が難しいためである。特にサイバーセキュリティやバイオテクノロジーの領域、ならびにフロンティアAIシステムが偽情報などのリスクを増幅させる可能性がある場合に、このようなリスクに我々は特に懸念を抱いている。AIモデルの最も重要な能力から生じる深刻な、あるいは壊滅的な、故意または偶発的な危害の可能性がある。AIの急速かつ不確実な変化の率と技術への投資の加速の文脈で、これらの潜在的なリスクとそれに対処するための行動を深く理解することの緊急性を確認する。
AIから生じる多くのリスクは本質的に国際的な性質を持ち、したがって国際協力を通じて最も効果的に対処される。我々は、既存の国際フォーラムや他の関連する取り組みを通じて、安全で、すべての人々のための善意をサポートし、人間中心で信頼性があり、責任あるAIを保証するために、包括的な方法で協力して取り組むことを決意する。これには、AIに関連するリスクの広範囲に対処するための協力を促進することが含まれる。これを行う際に、国々は、AIに関連するリスクを考慮に入れ、AIの利点を最大化する革新的で比例的なガバナンスおよび規制アプローチの重要性を考慮すべきであると認識する。これには、状況に応じて、国の状況や適用される法的枠組みに基づいてリスクの分類と分類を行うことが含まれる場合がある。また、共通の原則や行動規範などのアプローチに関する協力の関連性についても注記する。フロンティアAIに関連する特定のリスクについては、既存の国際フォーラムや他の関連する取り組みを通じて、これらを特定し、理解し、適切に行動するために、我々の協力を強化し、持続し、さらに多くの国々と広げることを決意する。
AIの安全を確保するためには、すべての主体が役割を果たす必要がある。国家、国際フォーラムや他のイニシアティブ、企業、市民社会、学術界は協力して作業を進める必要がある。AIの包括性とデジタル分断の架け橋の重要性を認識し、我々は国際協力が適切な場合には多様なパートナーを巻き込んで取り組むよう努めるべきであると再確認し、開発途上国がAIの能力強化を支援し、持続可能な成長を支え、開発ギャップに対処するためのAIの有効な役割を活用することを支援する開発指向のアプローチと政策を歓迎する。
我々は、AIのライフサイクル全体で安全性を考慮する必要がある一方で、特に通常よりも強力で潜在的に有害なAIシステムを開発する主体、特にフロンティアAI能力は、これらのAIシステムの安全性を保証する特に強い責任があると確認する。これには、安全性試験、評価、およびその他の適切な措置を通じて含まれる。我々は、潜在的に有害な能力とそれによって生じる可能性のある影響を測定、監視、緩和する計画に関して、関連するすべての主体が文脈に応じた透明性と説明責任を提供するよう奨励する。特に、悪用と管理の問題、および他のリスクの増幅を防ぐために、これは重要である。
我々の協力の文脈で、国内および国際レベルでの行動に情報を提供するために、フロンティアAIリスクに対処するための我々のアジェンダは以下に焦点を当てる:
- 共通の懸念としてのAI安全リスクを特定し、これらのリスクに関する共有された科学的、証拠に基づく理解を構築し、能力が増加し続ける文脈でその理解を持続させること。これは、我々の社会におけるAIの影響を理解するためのより広いグローバルアプローチの文脈において行われる。
- このようなリスクに光を当て、安全性を確保するために、我々の国々をまたがってリスクベースの政策を構築すること。これには、フロンティアAI能力を開発する民間主体による透明性の向上、適切な評価指標、安全性試験のためのツール、および関連する公共部門の能力と科学研究の開発が含まれる。国の状況や適用される法的枠組みに基づき、我々のアプローチが異なる場合があることも認識しながら、適宜協力する。
このアジェンダを推進するために、我々はフロンティアAI安全に関する国際的に包括的な科学研究のネットワークを支援することを決意する。これは、既存および新しい多国間、多角的、および二国間協力を含み、既存の国際フォーラムやその他の関連するイニシアティブを通じて補完し、政策立案や公共の利益のための最良の科学を提供することを容易にする。
AIの変革的なポジティブな可能性を認識し、AIに関するより広範な国際協力を確実にするため、我々は既存の国際フォーラムやその他の関連するイニシアティブに参加し、より広範な国際的な議論に対して開かれた方法で貢献する包括的なグローバルダイアログを持続させることを決意する。また、フロンティアAI安全に関する研究を継続し、技術の利点を責任を持って善用し、すべての人に利益をもたらすために努力する。2024年に再び会合を持つことを楽しみにしている。
要約
人工知能(AI)は世界的な機会をもたらしており、人間の幸福、平和、繁栄を変革し、向上させる可能性がある。この潜在力を実現するために、安全で人間中心の信頼性と責任ある方法でAIを設計、開発、展開し、使用する必要がある。国際コミュニティはこれまで経済成長、持続可能な開発、革新を促進し、人権を守るためにAIの協力を進めてきた。AIシステムは住宅、雇用、交通、教育、健康、アクセシビリティ、正義など、日常生活の多くの分野に展開されており、その使用は増加している。
しかし、AIは重大なリスクも伴う。特に、高度な一般目的AIモデルや、損害を引き起こす可能性がある特定の狭いAIに関連して、安全上のリスクが発生する。これらのリスクは、人間の意図との整合性の問題や、誤用の可能性、制御の未解決の問題から生じる可能性がある。国際的な協力を通じて、これらのリスクに対処し、透明性、公平性、説明責任、規制、安全性、倫理などを考慮する必要がある。AIに関連する多くのリスクは国際的な性質を持っているため、国際的な協力を通じて最も効果的に対処することが求められる。各国はイノベーションを促進し、AIに関連するリスクを考慮に入れた適切なガバナンスと規制のアプローチを考慮するべきである。AIの安全性を確保するためには、国家、国際フォーラム、企業、市民社会、学界など、すべてのアクターの役割が重要である。
AIの安全に関するアジェンダとしては、共有された懸念のAI安全リスクの特定、これらのリスクに対する科学的かつ根拠に基づく理解の構築、AIの影響を理解するためのグローバルなアプローチの文脈でのその理解の持続が含まれる。我々は、AIの利点を責任を持って活用し、すべての人に利益をもたらすために、国際的な協力を持続させ、2024年に再び会合を開くことを楽しみにしている。