State of AI Report 2024(Benaich, 2024)
AI政治:権力、規制、影響力
「AI政治」は、人工知能(AI)が政治的権力構造、政策決定、社会全体に及ぼす影響を包括的に捉える概念です。ソースでは、AI政治の多岐にわたる側面が浮き彫りになっています。以下、主要な論点を詳しく解説します。
1. AIと権力の集中:NVIDIAの支配と新たな競争
ソースによると、AI業界においてNVIDIAは圧倒的な支配力を持ち、そのハードウェアはAI開発に不可欠なものとなっています。 2024年6月には時価総額が3兆ドルに達し、MicrosoftとAppleに次ぐ米国で3番目の企業となりました。 NVIDIAのBlackwell GPUは、前世代のHopperアーキテクチャと比較して大幅な性能向上を実現しており、主要なAIラボはこぞってこの最新GPUを採用しています。
しかし、AMDやIntelなどの競合企業も、ソフトウェアエコシステムの強化やオープンソースコミュニティへの積極的な働きかけを通じて、NVIDIAの牙城を崩そうと試みています。 また、CerebrasやGroqなどのAIチップスタートアップも、推論インターフェースの提供に注力することで、NVIDIAのソフトウェアエコシステムの優位性を回避しようと戦略を転換しています。
2. AI規制の進展:米国、EU、中国の動向
AI技術の急速な発展に伴い、各国政府はAI規制の整備を進めています。
米国: バイデン政権は、2023年10月に大統領令を発令し、フロンティアモデルの規制を導入しました。 この大統領令は、政府機関に対し、サイバーセキュリティ基準の策定、AI利用ポリシーの公開、AI関連の重要インフラストラクチャリスクへの対応などを義務付けています。また、GPT-4やGemini Ultra以上の計算能力を用いて学習されたモデルについては、公開前に政府への通知と安全性テスト結果の共有を義務付けています。 しかし、この大統領令は次期大統領選で共和党が撤回を公約に掲げており、AI規制の行方は不透明です。
EU: 欧州議会は2024年3月にAI法を可決し、世界で初めて包括的なAI規制の枠組みを導入しました。 この法律は、AIシステムのリスクレベルに応じて段階的に規制を適用するもので、「容認できないリスク」を持つAIシステム(例:社会スコアリング)は2025年2月から禁止されます。 しかし、実装の詳細についてはまだ未確定な部分が多く、産業界は今後の動向を注視しています。
中国: 中国は、2022年以降、生成AIに関する包括的なガイドラインを導入し、世界に先駆けてAI規制に乗り出しました。 中国政府は、AIモデルが政治的に「不正確」な回答を生成することを防ぐと同時に、検閲を受けているという印象を与えないよう、厳しい規制を課しています。 AIラボは、モデルを公開する前に、数万件の質問を用いたテストを実施し、拒否率を調整する必要があります。
3. AIの経済的影響:自動化、生産性、不平等
AIは、経済にも大きな影響を与える可能性があります。ソースでは、AIがもたらす自動化と生産性向上、そしてそれに伴う不平等の拡大について議論されています。
経済学者Daron Acemogluは、AIが今後10年間で全要素生産性を0.55%未満しか向上させない一方で、不平等を深めると主張し、議論を巻き起こしました。 Acemogluは、AIが既存の資本集約的なタスクの効率性にほとんど影響を与えずに、さらなるタスクの自動化を促進すると仮定しており、この仮定が批判の的となっています。
一方、経済評論家のNoah Smithは、AIが人間よりも効率的にタスクをこなせるようになるとしても、エネルギーと計算コストのために、最も重要なタスクにのみAIが適用される可能性が高く、比較優位の原則は当面の間維持されると反論しています。
4. AIガバナンス:国際協力と国家主導の取り組み
AIの安全性と倫理的な利用を確保するため、国際的な協力体制の構築と国家主導の取り組みが重要となっています。
ソースによると、英国は、2023年11月にブレッチリーパークでAI安全保障サミットを開催し、政府と産業界の代表を集めてAIの安全性に関する議論を深めました。 このサミットの結果、米国、英国、EU、中国などの国々がブレッチリー宣言に署名し、安全保障上の課題の特定とリスクベースの政策導入において協力することで合意しました。
また、英国は世界初のAI安全研究所(AISI)を設立し、高度なAIモデルの評価、安全性に関する国家的能力の向上、国際的なパートナーとの連携などを推進しています。 米国、日本、カナダも同様の取り組みを開始しており、AIガバナンスに向けた国際的な機運が高まっています。
5. AIと軍事利用:国家安全保障と倫理的課題
AIは、軍事分野においても大きな変革をもたらす可能性があります。ソースでは、AIの軍事利用が国家安全保障と倫理的課題に与える影響について考察されています。
米国防総省は、自律型兵器システムの開発を推進しており、AIスタートアップへの投資を拡大しています。 しかし、AI兵器の開発と使用は、倫理的な観点から大きな議論を呼んでいます。AI兵器が人間の判断を介さずに攻撃を行う可能性や、誤作動による民間人への被害などが懸念されています。
結論:AI政治の複雑さと将来展望
AI政治は、AI技術の発展と普及に伴い、ますます複雑化していくでしょう。AIが政治、経済、社会に及ぼす影響は多岐にわたり、その影響力を理解し、適切な政策を立案することは容易ではありません。
AIの安全性、倫理的な利用、社会への影響など、様々な課題を解決していくためには、政府、産業界、学術界、そして市民社会が協力し、開かれた議論と多様な視点からの検討を進めていく必要があります。