AI Index Report 2025: Stanford University's Institute for Human-Centered Artificial Intelligence (HAI) より
目次
-
- AI Index Reportの背景
- 第8版の特徴と重要性
- 報告書の目的と利用
-
- 産業界とアカデミアの貢献
- 国別の研究開発状況
- AIモデル開発の進化
- コストと効率性の変化
-
- ベンチマークにおける飛躍的進歩
- モデル間の性能収束
- 推論パラダイムの革新
- 残る技術的課題
-
- RAI評価の現状と課題
- インシデント報告の増加
- 透明性と説明責任
- バイアスとデータコモンズ
-
- 投資動向とその拡大
- ビジネス採用の加速
- 生産性とスキルギャップ
- エネルギー需要の変化
-
- 科学的発見の加速
- 医療AIの進化
- FDA認可の動向
- ノーベル賞で認められたAI
-
- 規制フレームワークの進化
- 政府投資の拡大
- 国際協力の強化
- 安全性研究所のグローバル展開
-
- コンピュータサイエンス教育の普及
- AI教育の課題
- グローバルアクセスの格差
- 高等教育の動向
-
- AIに対する楽観論の高まり
- 地域間の意識差
- 信頼と懸念
- 労働市場への認識
-
- AIの民主化
- 技術的収束と差別化
- グローバル競争の新局面
- 社会的インパクトの拡大
-
- 主要発見の総括
- AIの未来への展望
はじめに
AI Index Report 2025は、Stanford University's Institute for Human-Centered Artificial Intelligence (HAI)が発行する人工知能の発展と影響に関する最も包括的な年次報告書の第8版です。2017年に「One Hundred Year Study on Artificial Intelligence」の派生プロジェクトとして始まったこの報告書は、政策立案者、研究者、企業幹部、そして一般市民がAIに関する十分な情報に基づいた決定を下せるよう、正確かつ厳密に検証されたグローバルなデータを提供することを使命としています。
今年の報告書は、AIの影響力が社会、経済、そしてグローバルガバナンスにおいて急速に強まる中、重要なタイミングで公開されました。第8版では、AIハードウェアの進化、推論コストの新たな推定、AI出版物や特許動向の分析など、これまでにない深い洞察が提供されています。また、企業による責任あるAI実践の採用や、科学・医療分野におけるAIの拡大する役割についても新たなデータが追加されています。
The New York Times、Bloomberg、The Guardianなどの主要メディアに引用され、何百もの学術論文で参照され、世界中の政策立案者や政府機関に活用されている本報告書は、AI生態系における独立した洞察の源として機能しています。
この記事では、AI Index Report 2025の主要な発見と洞察を体系的に紹介し、AIの現状と将来の方向性について理解を深めていきます。
研究開発の動向
産業界とアカデミアの貢献
2025年の報告書は、AI研究開発の風景における重要な変化を明らかにしています。産業界は顕著なAIモデル開発においてリードを続けており、2024年に注目されたモデルの約90%が民間セクターから誕生しました—これは2023年の60%から大幅に増加しています。一方、アカデミアは過去3年間にわたり、引用数の多い(トップ100)出版物を生み出す主要な機関としての地位を維持しています。
国別の研究開発状況
2023年、中国はAI出版物(23.2%)と引用数(22.6%)で他のどの国よりも多くを生産しました。しかし、過去3年間において、米国の機関は最も高く引用されたAI出版物(トップ100)に最も多く貢献しています。
2024年、米国を拠点とする機関は40の注目すべきAIモデルを生み出し、中国の15、ヨーロッパの総計3を大幅に上回りました。過去10年間、他のどの国よりも多くの注目すべき機械学習モデルが米国から誕生しています。
AIモデル開発の進化
報告書はまた、AIモデルの規模がますます大きくなり、計算要求が増大し、エネルギー集約度が高まっていることを強調しています。注目すべきAIモデルのトレーニング計算能力は約5ヶ月ごとに倍増し、データセットのサイズは8ヶ月ごと、必要な電力は年間で倍増しています。
AIトレーニングによる炭素排出量は着実に増加しています。AlexNet(2012年)のような初期モデルのトレーニングは0.01トンと控えめでしたが、最近のモデルでは大幅に増加しています:GPT-3(2020年)は588トン、GPT-4(2023年)は5,184トン、Llama 3.1 405B(2024年)は8,930トンに達しています。比較のために、平均的なアメリカ人は年間18トンの炭素を排出します。
コストと効率性の変化
規模と電力要件の増大にもかかわらず、AIモデルの使用コストは急速に低下しています。MMMLUベンチマークでGPT-3.5(64.8%)と同等のスコアを達成するAIモデルのクエリコストは、2022年11月の100万トークンあたり20.00ドルから、2024年10月には100万トークンあたりわずか0.07ドル(Gemini-1.5-Flash-8B)に低下しました—約18ヶ月間で280倍以上の削減です。タスクによっては、LLM推論価格は年間9〜900倍も低下しています。
機械学習ハードウェアのパフォーマンスは、16ビット浮動小数点演算で測定すると、年間43%成長し、1.9年ごとに倍増しています。価格性能も向上し、コストは年間30%低下し、エネルギー効率は年間40%向上しています。
特許出願も堅調に増加しており、2010年から2023年の間にAI特許の数は3,833件から122,511件へと着実かつ大幅に成長しました。直近の1年間だけでもAI特許の数は29.6%増加しています。2023年時点で、中国は全体の69.7%を占め、AI特許総数でリードしていますが、一方で韓国とルクセンブルクは一人当たりのAI特許生産でトップに立っています。
技術的性能の進化
ベンチマークにおける飛躍的進歩
AIは新しいベンチマークをかつてないスピードで習得しています。2023年、AI研究者たちはMMU、GPQA、SWE-benchなど、ますます高性能化するAIシステムの限界をテストするための難しい新しいベンチマークをいくつか導入しました。2024年までに、これらのベンチマークにおけるAIのパフォーマンスは著しく向上し、MMUとGPQAではそれぞれ18.8ポイントと48.9ポイントの向上が見られました。SWE-benchでは、2023年にAIシステムが解決できるコーディング問題はわずか4.4%でしたが、2024年には71.7%にまで急増しました。
モデル間の性能収束
昨年のAI Indexでは、主要なオープンウェイトモデルがクローズドウェイトの対応物よりも大幅に遅れをとっていることが明らかになりました。2024年までに、このギャップはほぼ消失しました。2024年1月初旬、主要なクローズドウェイトモデルはChatbot Arena Leaderboardにおいて最高のオープンウェイトモデルを8.0%上回っていました。2025年2月までに、このギャップは1.7%にまで縮小しました。
2023年、主要な米国モデルは中国のモデルを大幅に上回っていましたが、この傾向ももはや当てはまりません。2023年末時点で、MMLU、MMMU、MATH、HumanEvalなどのベンチマークにおけるパフォーマンスギャップはそれぞれ17.5、13.5、24.3、31.6ポイントでした。2024年末までに、これらの差はそれぞれ0.3、8.1、1.6、3.7ポイントと大幅に縮小しています。
AIモデルの性能はフロンティアで収束しています。昨年のAI Indexによると、Chatbot Arena Leaderboardにおけるトップモデルとランク10位のモデル間のEloスコア差は11.9%でした。2025年初頭までに、このギャップは5.4%に縮小しました。同様に、トップ2モデル間の差も2023年の4.9%から2024年にはわずか0.7%に縮小しました。AI業界はますます競争が激しくなり、より多くの開発者から高品質なモデルが提供されるようになっています。
推論パラダイムの革新
2024年、OpenAIはo1やo3などのモデルを導入し、出力を繰り返し推論するように設計されています。このテストタイム計算アプローチはパフォーマンスを劇的に向上させ、o1は国際数学オリンピック予選で74.4%のスコアを達成し、GPT-4oの9.3%を大幅に上回りました。しかし、この強化された推論にはコストがかかります:o1はGPT-4oよりも約6倍高価で、30倍遅いのです。
同時に、小型モデルがより強力なパフォーマンスを実現しています。2022年、MMUで60%以上のスコアを記録した最小のモデルは、5,400億パラメータを持つPaLMでした。2024年までに、Microsoftのわずか38億パラメータのPhi-3-miniが同じしきい値を達成しました—2年間で142倍の削減に相当します。
残る技術的課題
chain-of-thoughtなどのメカニズムの追加によりLLMのパフォーマンスは大幅に向上しましたが、これらのシステムは依然として算術や計画などの論理的推論を用いて正確な解決策が見つかる問題を、特にトレーニングされたものより大きなインスタンスで確実に解決することができません。これはこれらのシステムの信頼性と高リスクアプリケーションへの適合性に重大な影響を与えています。
2024年のRE-Benchの立ち上げは、AIエージェントの複雑なタスク評価のための厳格なベンチマークを導入しました。短い時間枠(2時間の予算)では、トップAIシステムは人間の専門家よりも4倍高いスコアを記録しますが、時間予算が増えるにつれて、人間のパフォーマンスがAIを上回り、32時間では2対1でAIを上回ります。AIエージェントはTritonカーネルの作成などの特定のタスクですでに人間の専門知識に匹敵し、より速くより低コストで結果を提供しています。
MMLU、GSM8K、HumanEvalなどの伝統的なAIベンチマークの飽和と、MMUやGPQAなどのより難しい新しいベンチマークでのパフォーマンス向上により、研究者たちは主要なAIシステムの追加の評価方法を模索するようになりました。これらの中で注目すべきは、最高のシステムがわずか8.80%のスコアを獲得するHumanity's Last Exam、AIシステムが問題の2%しか解決できない複雑な数学ベンチマークのFrontierMath、AIシステムが35.5%の成功率を達成する(人間の標準97%を大幅に下回る)コーディングベンチマークのBigCodeBenchなどです。
責任あるAI
RAI評価の現状と課題
報告書は、RAI(Responsible AI)基準によるAIシステムの評価がまだ一般的ではないことを強調していますが、HELM SafetyやAIR-Benchなどの新しいベンチマークが登場し始めています。
以前のベンチマークであるHaluEvalやTruthfulQAは、AIモデルの事実性と真実性を評価することを目的としていましたが、AI community内での広範な採用には至りませんでした。これに対応して、更新されたHughes Hallucination Evaluation Modelリーダーボード、FACTS、SimpleQAなど、より包括的な評価が登場しています。
インシデント報告の増加
AI Incidents Databaseによると、AI関連のインシデント報告数は2024年に233件に上り、過去最高を記録し、2023年から56.4%増加しました。
透明性と説明責任
更新されたFoundation Model Transparency Index—財団モデルエコシステムにおける透明性を追跡するプロジェクト—は、主要なモデル開発者間の平均透明性スコアが2023年10月の37%から2024年5月には58%に向上したことを明らかにしました。これらの向上は期待できますが、まだ改善の余地が十分にあります。
組織はRAIリスクを認識していますが、緩和努力は認識に遅れをとっています。McKinseyのRAIエンゲージメントに関する調査によると、多くの組織が主要なRAIリスクを特定していても、すべてがそれらに対処するための積極的な措置を講じているわけではありません。不正確さ、規制コンプライアンス、サイバーセキュリティなどのリスクは、リーダーにとって最も重要な問題であり、回答者のそれぞれ64%、63%、60%がこれらを懸念事項として挙げています。
バイアスとデータコモンズ
AIモデルは学習において膨大な量の公開されたウェブデータに依存しています。最近の研究によると、2023年から2024年にかけてデータ使用制限が大幅に増加し、多くのウェブサイトがAIトレーニング用のデータスクレイピングを制限するための新しいプロトコルを実装しました。C4 common crawlデータセットの活発に維持されているドメインでは、制限されたトークンの割合が5〜7%から20〜33%にまで急増しました。この減少はデータの多様性、モデルの整合性、スケーラビリティに影響を与え、データ制約のある学習への新しいアプローチにつながる可能性があります。
多くの先進的なLLM(GPT-4やClaude 3 Sonnetなど)は明示的なバイアスを抑制するための対策を設計していますが、暗黙的なバイアスを示し続けています。これらのモデルは黒人個人に対して不釣り合いに否定的な用語を関連付け、女性をSTEM分野ではなく人文科学に関連付けることが多く、リーダーシップの役割に男性を好むなど、意思決定における人種的・性別的バイアスを強化しています。標準的なベンチマークではバイアス指標が改善されているものの、AIモデルのバイアスは依然として広範な問題です。
主要なAI会議で採択されたRAI論文の数は、2023年の992件から2024年には1,278件へと28.8%増加し、2019年以降着実に年間上昇を続けています。この上昇傾向は、AI研究コミュニティ内でのRAIの重要性の高まりを示しています。
経済への影響
投資動向とその拡大
グローバルな民間AI投資は26%増加し、記録的な高水準に達しました。企業のAI投資は2024年に2,523億ドルに達し、民間投資は前年比44.5%増加、合併・買収は12.1%増加しました。セクターは過去10年間で劇的に拡大し、2014年以降の総投資は13倍以上に成長しました。
生成AI(Generative AI)への投資は2024年に339億ドルに達し、2023年から18.7%増加し、2022年のレベルの8.5倍以上となりました。このセクターは現在、すべてのAI関連の民間投資の20%以上を占めています。
米国はグローバルAI民間投資におけるリードを拡大しています。米国の民間AI投資は2024年に1,091億ドルに達し、中国の93億ドルのほぼ12倍、英国の45億ドルの24倍という規模になっています。このギャップは生成AIにおいてさらに顕著であり、米国の投資は中国と欧州連合および英国の合計を254億ドル上回り、2023年の218億ドルのギャップをさらに拡大しています。
ビジネス採用の加速
AIの使用は前例のないレベルに達しています。2024年、調査回答者の組織によるAI使用の割合は2023年の55%から78%に急増しました。同様に、少なくとも1つのビジネス機能において生成AIを使用していると報告した回答者の数は、2023年の33%から昨年は71%と2倍以上になりました。
AIはビジネス機能全体で財務的影響をもたらし始めていますが、ほとんどの企業はその導入の初期段階にあります。ビジネス機能内でAIを使用することによる財務的影響を報告している企業のほとんどは、その利益を低いレベルと推定しています。サービス業務でAIを使用している組織の回答者の49%がコスト削減を報告し、続いてサプライチェーン管理(43%)、ソフトウェアエンジニアリング(41%)となっていますが、その多くは10%未満のコスト削減を報告しています。収益に関しては、マーケティングと販売でAIを使用している回答者の71%が収益増加を報告し、サプライチェーン管理では63%、サービス業務では57%ですが、最も一般的な収益増加レベルは5%未満です。
AIの使用は地域によって劇的な変化を示しており、大中華圏が勢いを増しています。北米がAIの組織的使用でリーダーシップを維持する一方、大中華圏は組織的AI使用で27ポイントの増加という最も顕著な前年比成長率の一つを示しました。ヨーロッパも23ポイントの増加と続き、急速に進化するグローバルAI状況と、AI実装における国際競争の激化を示唆しています。
生産性とスキルギャップ
昨年のAI Indexは、AIが生産性に与える好影響を強調した最初の報告書の一つでした。今年、追加の研究によってその発見が強化され、AIが生産性を向上させ、ほとんどの場合、低スキルと高スキルの労働者間のギャップを縮小するのに役立つことが確認されました。
エネルギー需要の変化
AIは、エネルギー源の大きな変化を引き起こし、原子力エネルギーへの関心を集めています。MicrosoftはAIに電力を供給するためにThree Mile Island原子炉を復活させる16億ドルの契約を発表し、GoogleとAmazonもAI事業をサポートするための原子力エネルギー契約を確保しています。
中国の産業用ロボット分野における優位性は、若干の減速にもかかわらず続いています。2023年、中国は276,300台の産業用ロボットを設置し、日本の6倍、米国の7.3倍となりました。2013年に日本を追い抜いて以来、中国がグローバル設置の20.8%を占めていた時から、その割合は51.1%に上昇しました。中国は依然として世界の残りの地域の合計よりも多くのロボットを設置し続けていますが、この差は2023年にわずかに縮小し、その劇的な拡大のわずかな減速を示しています。
協働型およびインタラクティブなロボットの設置がより一般的になっています。2017年、協働型ロボットはすべての新しい産業用ロボット設置のわずか2.8%でしたが、2023年までにこの数字は10.5%に上昇しました。同様に、2023年は医療ロボティクスを除くすべてのアプリケーションカテゴリでサービスロボットの設置が増加しました。この傾向は、ロボット設置の全体的な増加だけでなく、人間と対面する役割のためのロボット配備の増加も示しています。
科学と医療における進歩
科学的発見の加速
2024年、いくつかの大規模かつ高性能なタンパク質シーケンシングモデル(ESM3やAlphaFold 3を含む)が登場しました。時間の経過とともに、これらのモデルは大幅にサイズが増大し、タンパク質予測精度の継続的な向上につながっています。
科学的進歩におけるAIの役割は拡大し続けています。2022年と2023年がAI主導のブレークスルーの初期段階を記録する一方、2024年はさらに大きな進歩をもたらしました。これにはAviaryが含まれ、生物学的タスクのためのLLMエージェントを訓練し、FireSatは山火事予測を大幅に強化します。
AIは科学的発見を加速しているだけでなく、その成果が科学コミュニティからも認められています。2024年、AI駆動型研究は最高の栄誉を受け、AI関連のブレークスルーに対して2つのノーベル賞が授与されました。Google DeepMindのDemis HassabisとJohn Jumperは、AlphaFoldによるタンパク質折りたたみに関する先駆的な業績でノーベル化学賞を受賞しました。一方、John HopfieldとGeoffrey Hintonは、ニューラルネットワークへの基礎的貢献に対してノーベル物理学賞を受賞しました。
医療AIの進化
主要なLLMの臨床知識は向上し続けています。OpenAIの最近リリースされたo1は、MedQAベンチマークで新たな最先端の96.0%を記録し、2023年に投稿された最高スコアから5.8ポイント向上しました。2022年末以降、パフォーマンスは28.4ポイント向上しています。臨床知識を評価するための重要なベンチマークであるMedQAは飽和に近づいている可能性があり、より挑戦的な評価の必要性を示しています。
AIは主要な臨床タスクで医師を上回っています。新しい研究によると、GPT-4単独でAIを使用する医師と使用しない医師の両方を上回り、複雑な臨床ケースを診断しました。他の最近の研究では、AIがガン検出や高死亡リスク患者の特定において医師を上回っていることが示されています。しかし、いくつかの初期研究では、AI-医師の協力が最良の結果をもたらすことを示唆しており、さらなる研究の実りある分野となっています。
FDA認可の動向
FDAが承認したAI対応医療機器の数は急増しています。FDAは1995年に最初のAI対応医療機器を承認しました。2015年までに、そのような機器はわずか6台しか承認されていませんでしたが、2023年までにはその数は223台に急増しました。
2024年にリリースされた研究によると、AI生成の合成データはモデルが健康の社会的決定要因をより良く特定し、プライバシーを保護する臨床リスク予測を強化し、新しい薬物化合物の発見を促進するのに役立つことが示唆されています。
医療AIにおける倫理に関する出版物の数は年々増加しており、2020年の288から2024年には1,031と、2020年から2024年の間にほぼ4倍になりました。
2024年、Med-Geminiなどの汎用マルチモーダルモデルから、心エコー検査用のEchoCLIP、眼科学用のVisionFM、放射線科用のChexAgentなどの専門モデルまで、大規模な医療基盤モデルが多数リリースされました。
2021年以降、主要な公共タンパク質科学データベースのエントリ数は大幅に増加しており、UniProt(31%)、PDB(23%)、AlphaFold(585%)などが含まれます。この拡大は科学的発見に重要な意味を持っています。
政策とガバナンス
規制フレームワークの進化
連邦レベルでの進展が遅い中、米国の州はAI法案で主導的役割を果たしています。2016年にはわずか1つの州レベルのAI関連法が可決されましたが、2023年までに49に増加しました。過去1年だけで、その数は131と2倍以上になりました。連邦レベルでのAI法案の提案も増加していますが、可決された数は依然として低いままです。
米国のAI関連連邦規制の数は急増しています。2024年には59のAI関連規制が導入され、2023年の25件の2倍以上となりました。これらの規制は42の独自の機関から出され、2023年に発行した21の機関の2倍でした。
2024年以前、ディープフェイク(deepfake)選挙規制法を制定していたのはカリフォルニア、ミシガン、ワシントン、テキサス、ミネソタの5州のみでした。2024年には、オレゴン、ニューメキシコ、ニューヨークなど、さらに15の州が同様の措置を導入しました。さらに、2024年までに24の州がディープフェイクを対象とした規制を可決しています。
政府投資の拡大
世界中の政府がAIインフラストラクチャに投資しています。カナダは24億ドルのAIインフラストラクチャパッケージを発表し、中国は半導体生産を促進するための475億ドルの基金を立ち上げました。フランスはAIインフラストラクチャに1,170億ドルを投入し、インドは12.5億ドルを約束し、サウジアラビアのProject Transcendenceには1,000億ドルのAI投資が含まれています。
国際協力の強化
世界中で、立法手続きにおけるAIの言及は増加し続けています。75か国にわたり、立法手続きでのAIの言及は2024年に21.3%増加し、2023年の1,557件から1,889件に増加しました。2016年以来、AIの言及の総数は9倍以上に増加しています。
安全性研究所のグローバル展開
2024年、世界中の国々が国際的なAI安全研究所を立ち上げました。最初の研究所は2023年11月の初のAI安全サミットに続き、米国と英国で誕生しました。2024年5月のAIソウルサミットでは、日本、フランス、ドイツ、イタリア、シンガポール、韓国、オーストラリア、カナダ、欧州連合で追加の研究所が約束されました。
教育と人材育成
コンピュータサイエンス教育の普及
米国の高校におけるコンピュータサイエンス(CS)コースへのアクセスと登録は前学年度からわずかに増加しましたが、州、人種と民族、学校規模、地理、収入、性別、障害によって格差が残っています。
米国のCS教師の81%がAIの使用と学習が基本的なCS学習体験に含まれるべきだと同意していますが、高校のCS教師の半数以下がAIを教えるための準備ができていると感じています。
グローバルアクセスの格差
世界中の国々の3分の2が現在K-12コンピュータサイエンス教育を提供しているか、提供する計画を持っています—これは2019年の2倍です。アフリカとラテンアメリカの国々が最も進歩していますが、アフリカの国々の学生は電気などの学校の基本インフラの不足のため、CS教育へのアクセスが最も少ないです。
高等教育の動向
米国でAIで修士号を取得した卒業生は2022年から2023年の間にほぼ2倍になりました。AIへの注目の高まりは学士号と博士号の数ではゆっくりと現れますが、修士号の急増はすべての学位レベルで発展しつつあるトレンドを示す可能性があります。
米国はすべてのレベルで情報・技術・通信(ICT)卒業生を生み出すグローバルリーダーであり続けています。スペイン、ブラジル、英国はさまざまなレベルでトップの生産者として米国に続き、トルコは最高のジェンダーパリティを誇っています。
公衆の意見と認識
AIに対する楽観論の高まり
世界は慎重ながらもAI製品とサービスに対して楽観的になりつつあります。2022年と2024年の両方でIpsosによって調査された26カ国のうち、18カ国でAI製品とサービスがデメリットよりもメリットを提供すると信じる人々の割合が増加しました。グローバルに見ると、AI製品とサービスが有害よりも有益だと見なす個人の割合は、2022年の52%から2024年には55%に上昇しました。
AI楽観論は、以前最も懐疑的だった国々で急激な増加を示しています。グローバルに見ると、AI製品とサービスに対する楽観論は増加しており、以前最も懐疑的だった国々で最も急激な上昇が見られます。2022年、イギリス(38%)、ドイツ(37%)、アメリカ(35%)、カナダ(32%)、フランス(31%)はAIがデメリットよりもメリットを持つと見なす可能性が最も低い国々でした。それ以来、これらの国々における楽観論はそれぞれ8%、10%、4%、8%、10%増加しました。
地域間の意識差
AIの楽観論に関する地域差は依然として顕著です。2023年のAI Indexで初めて報告されたように、AI楽観論に関する顕著な地域差が依然として続いています。中国(83%)、インドネシア(80%)、タイ(77%)などの国々では大多数の人々がAI製品とサービスがデメリットよりもメリットを提供すると信じていますが、カナダ(40%)、アメリカ(39%)、オランダ(36%)では少数派しかこの見解を共有していません。
信頼と懸念
AI企業の倫理的行動に対する懐疑論が高まり、AIの公平性に対する信頼は低下しています。グローバルに見ると、AI企業が個人データを保護するという信頼は2023年の50%から2024年には47%に低下しました。同様に、AIシステムが偏りがなく差別がないと信じる人々は昨年に比べて減少しています。
米国人は自動運転車に対して依然として不信感を持っています。最近のアメリカ自動車協会の調査によると、米国の人々の61%が自動運転車を恐れており、信頼しているのは13%のみです。恐怖を表明した人々の割合は2023年のピーク68%から減少したものの、2021年(54%)よりも依然として高いです。
労働市場への認識
労働者はAIが仕事を再形成すると予想していますが、置き換えられることへの恐れは低下しています。グローバルに見ると、回答者の60%がAIが今後5年間で個人が仕事をする方法を変えると同意しています。しかし、回答者のより小さなサブセットである36%が、AIが今後5年間で彼らの仕事を置き換えると信じています。
米国の地方政策立案者の間でAI規制に対する広範な支持があります。2023年、タウンシップ、自治体、郡レベルにまたがる米国の地方政策立案者の73.7%がAIを規制すべきだと同意し、2022年の55.7%から大幅に増加しました。支持は共和党員(55.5%)よりも民主党員(79.2%)の方が強かったですが、両方とも2022年と比べて顕著な増加を示しました。
米国の地方政策立案者の間でAI政策の優先事項に鋭い分岐があります。米国の地方政策立案者は広くAI規制を支持していますが、その優先事項は様々です。最も強い支持を受けているのは、より厳しいデータプライバシールール(80.4%)、失業者の再訓練(76.2%)、AI配備規制(72.5%)です。しかし、支持は法執行顔認識禁止(34.2%)、賃金低下に対する賃金補助金(32.9%)、ユニバーサルベーシックインカム(24.6%)に対して大幅に低下します。
AIは時間の節約とエンターテイメントの向上をもたらすと見なされていますが、その経済的影響については疑問が残っています。AIの影響に対するグローバルな展望は様々です。55%が時間を節約すると信じ、51%がより良いエンターテイメントオプションを提供すると期待する一方で、健康や経済的利益に自信を持っている人は少ないです。AIが健康を改善すると考えるのは38%のみであり、AIが国家経済を改善すると考えるのは36%、労働市場にポジティブな影響を与えると考えるのは31%、自分の仕事を向上させると信じるのは37%です。
今後の展望と意義
AI Index Report 2025の発見から、いくつかの重要なトレンドと意味が浮かび上がってきます:
AIの民主化
コストの低下、効率の向上、より強力なオープンウェイトモデルにより、AIはより広範囲の組織や個人にとってより身近なものになっています。このトレンドはイノベーションを加速する可能性がありますが、誤用や責任に関連する新しい課題をもたらす可能性もあります。
技術的収束と差別化
トップモデル間のパフォーマンスギャップの縮小は、特定の能力において私たちがプラトーに近づいている可能性を示唆しており、競争の焦点が生のパフォーマンスから効率性、特殊能力、責任ある実装などの他の要因へとシフトする可能性があります。
グローバル競争の新局面
米国が投資とモデル開発でリーダーシップを維持する一方、中国はパフォーマンスギャップを急速に縮めています。他の地域も規制、投資、教育イニシアチブの強化を通じてAI努力を強化しています。
社会的インパクトの拡大
AIはもはや技術的な好奇心の対象ではなく、ヘルスケア、ビジネス業務、科学的発見、日常生活に具体的な変化をもたらしています。理論的可能性から実用的影響へのこの移行は、加速し続ける可能性が高いです。
まとめ
AI Index Report 2025は、技術の重要な転換点においてAIの包括的で細かい見解を提供しています。AIは周辺から私たちの技術インフラ、経済システム、日常生活に深く組み込まれるようになりました。開発の急速なペースは衰える兆しを見せておらず、パフォーマンスフロンティアでの収束、アクセスの民主化、グローバル競争の激化など、状況は進化しています。
AIがより強力で普及するにつれて、責任ある開発、思慮深い規制、包括的な教育の必要性はますます急務となっています。この報告書の発見は、達成されている大きな進歩と、AIの可能性を広範な社会的利益のために活用する上で残っている重要な課題の両方を強調しています。
政策立案者、研究者、ビジネスリーダー、そして一般市民にとって、AI Index Report 2025は、AIの現状とそれが私たちの集合的未来をどのように形作る可能性があるかを理解するための重要なリソースを提供しています。