12月に開催されたAWS re:Invent 2024、基調講演のアーカイブから「Keynote with Dr. Swami Sivasubramanian」の内容を共有します。動画の文字起こしから生成AIの支援を借りながら、段落分けや日本語訳を行ったものです。
なお私的な事情ですが、今週は耳の不調が激しく、実際の動画が視聴できない状態で内容把握のために作成しています。このため、元情報としている音声認識がおかしそうなところを、自分で聞いてみて修正することができていません。修正提案を心から歓迎します。
オープニング (1:26)
AWSのAIおよびデータ担当副社長、Dr. Swami Sivasubramanianをご紹介します。
[音楽]
皆さん、おはようございます。本日はre:Invent 2024にご参加いただきありがとうございます。今年もまた記念碑的な1年となりました。すべての業界のすべての組織が現状に挑戦しています。現状維持が変化しています。破壊的変革が新たな常識となり、迅速な革新が必要不可欠となっています。
私たちがクリエイター、試作家、技術者としての歴史を振り返ると、自然の限界を超えることへの本能的な欲求を常に持っていました。これまでの発明者たちの成果を積み重ね、ある日、すべての小さな成果が突然合わさり、その合計以上の何か大きなものを生み出し、すべてが一気に飛躍する魔法の瞬間を経験するのです。
航空史における重要な突破口である、1903年のライト兄弟の初飛行を振り返りましょう。この12秒間の飛行は単独では実現しませんでした。それは、人間の飛行の概念的基盤を築いたダ・ヴィンチのスケッチや、揚力と推進の概念を分離した初期の固定翼航空機の設計など、数世紀にわたる技術革新を象徴していました。
そしてもちろん、動力飛行の可能性を示した最初の蒸気動力航空機や、ライト兄弟に直接影響を与えた揚力と抗力に関する重要なデータを提供した一連のグライダー実験も含まれます。これらすべての成果に加え、材料科学、製造、内燃機関の革新が集約されたことで、動力飛行が可能になったのです。
したがって、ライト兄弟は12秒間の成功のすべての功績を独占するわけではありませんが、彼らは前の世代の夢見る人々の仕事を統合する存在となりました。
今日、私たちは生成AIとともに、同様の技術的融合のポイントに立っています。この新しいAI革新の時代は、数十年にわたる研究と科学的進歩を結集したものです。最初の人工ニューラルネットワークであるパーセプトロンモデルから、効率的な多層モデルのトレーニングを可能にした逆伝播、そして注釈付きデータを必要としないデータから学習できる教師なし事前学習の大きな可能性の発見まで。
そしてもちろん、自然言語処理を革命的に変えたトランスフォーマーアーキテクチャも含まれます。
AIサービスの広がりとSageMakerの進化 (4:15)
しかし、これらの発見だけでは不十分でした。大量のデータセットと、クラウドを介して提供される特殊なコンピュートの融合が、AIの発展に完璧な条件を作り出しました。そして今、生成AIによる新たな転換点に到達しました。新しいツールとユーザーインターフェイスがかつてない速度で普及を可能にし、効率性を高め、創造性を解き放っています。
例えば、カスタマーサービス担当者はAIを使用して、数秒でパーソナライズされた顧客対応を行っています。マーケターは、説得力のある広告コピーや画像をスケールで生成し、開発者は生成AIの支援を活用してソフトウェア開発プロセスの重労働を取り除いています。
生成AIを可能にした技術的な融合を振り返ると、私はAmazonでの18年間の旅とAWSの創設を思い返さずにはいられません。私たちの実験がどこに導くか、常にわかっていたわけではありません。私は、終わりのない好奇心と実際の顧客の課題を解決したいという本能的な願望に駆り立てられていました。
私たちは、S3によるスケーラブルなインフラから、DynamoDBによるデータベースの革新、EMRやRedshiftによるスケーラブルな分析、そしてもちろんSageMakerやBedrockによる機械学習の民主化に至るまで、旅の中で革新を続けてきました。
例えば、IntuitはS3を活用してAWS上にデータレイクを構築し、Amazon Athena、EMR、Glueを使用して分析を行い、SageMakerをML戦略の中核要素として活用しています。また、GE Healthcareは、S3、Redshift、SageMakerの力を活用して、医療ユースケース向けの分析やMLワークフローを実行しています。
これらのサービスの広がりと深さは、データおよびML関連プロジェクトをスケールさせるお客様にとって極めて重要でした。
SageMaker AI (6:38)
しかし、ますます多くのお客様が、複数のユースケースで同じデータセットを活用したいと考えており、作業を行うために複数のサービス間を移動したくありませんでした。私たちは、ビッグデータ分析、機械学習、そして今や生成AIの融合を活用して、ワークフローを加速し、コラボレーションを強化する新しい統合体験を創り出す大きなチャンスを見出しました。
そのため、昨日、Mattが次世代のSageMakerがデータ分析とAIの中心になることを発表しました。これは、ビッグデータ、高速SQL分析、機械学習、モデル開発、生成AIにわたる私たちの重要な学びを1つの統合されたプラットフォームにまとめたものです。ただツールを統合しただけではありません。これは何年にもわたる作業、無数のお客様との会話、AWS全体のチームによる集団的な専門知識を結集した成果です。
この新しい体験を提供できることに興奮していますが、SageMakerの能力、特にトレーニング能力の向上を遅らせるわけではありません。皆さんがすでに知っていて愛用しているSageMakerがさらに進化したものです。SageMaker AIは、データとMLの世界におけるイノベーションの融合を表しています。これは、ディープラーニングを初めてよりアクセス可能でスケーラブルにするために、数十年にわたるニューラルネットワーク研究に基づいて構築されています。それは、計算能力、ML分散システム、ユーザーエクスペリエンスデザインの突破口の結晶です。
SageMaker AIは、データ準備からMLモデルの作成、トレーニング、MLデプロイメント、観測まで、機械学習および分析ライフサイクルの重労働を取り除くツールとワークフローを提供します。これらすべてを1つの場所にまとめて提供します。そのため、何十万ものお客様がSageMaker AIを使用して、自分たちの基盤モデルをそのデータでトレーニングし、展開しています。
昨年から私たちは、お客様がモデルをより迅速かつ効率的に構築できるように、140以上の新しい機能をリリースしました。
SageMaker Hyperpod (9:01)
しかし、生成AIの出現に伴い、これらすべてのモデルのトレーニングと推論をサポートする新しいツールと機能が必要であることを認識しました。数十億、数百億、場合によっては数千億のパラメータを持つこれらの非常に大規模なモデルは、構築とトレーニングが複雑であり、高度な機械学習の専門知識を必要とするからです。
まず、大量のデータを収集しなければなりませんでした。その後、これらの機械学習アクセラレータの大規模なクラスターを作成し、それをクラスター全体に分散してモデルをトレーニングします。この数週間にわたるプロセス中、頻繁に停止してモデルが収束しているかどうかを確認する必要があります。そうでない場合、適切な修正を行う必要があります。そして、この長いプロセスの途中でハードウェアアクセラレータが故障した場合、それらの問題を手動で修復しなければなりません。
このトレーニングプロセスに関連するすべての重労働を支援するために、昨年SageMaker Hyperpodをリリースしました。Hyperpodは高度な耐障害性機能を備えており、クラスターがスタック全体にわたる障害から自動的に回復できるようにします。高速なチェックポイントとアクティブなコンピュートリソース管理機能を備えています。
Hyperpodは、基盤モデルをトレーニングするためのお客様の選択されたインフラストラクチャとなりました。実際、Writer AIやPerplexityなどの有力なスタートアップ企業、およびThomson ReutersやSalesforceのような大企業が、Hyperpodを使用してモデル開発を加速しています。
しかし、この分野は急速に進化しており、スケールも前例のないペースで拡大しているため、これらのモデルがますます高度化する中、モデルトレーニングに関する重要な転換点に直面しています。計算リソース、エネルギー消費、データ品質に関して前例のない課題に直面しています。
数十億、そして間もなく数兆のパラメータを持つ大規模モデルのトレーニングという現在のパラダイムは、より効率的なアーキテクチャとトレーニング方法を探る必要性を私たちに示しています。従来のスケーリング技術は物理的および経済的な限界に近づいており、私たちの方法を根本的に再考する必要があります。
月曜日にPeterが述べたように、私たちはTRN2や特殊なGPUインスタンスを備えた最先端の機械学習インフラストラクチャを提供するために大規模な投資を行っています。
SageMaker Hyperpod Flexible Training Plans (11:38)
しかし、モデルトレーニングと推論に関して、お客様が計算リソースを効率的に管理し保護することにまだ課題があることを認識しています。ここで典型的な例を見てみましょう。例えば、大型の言語モデルを30日間にわたってアクセラレータを使用してトレーニングする必要があるとします。これらのインスタンスは需要が非常に高いため、広い時間枠でAZやリージョン間で利用可能なキャパシティを探すのに多くの時間を費やすことになります。
キャパシティを調達して、例えば分散したブロックを取得した場合、それらを管理し、チェックポイントを保存および復元し、トレーニングデータをキャパシティが確保された場所に近づける必要があります。そこで私たちは、コンピュート要件と希望するトレーニング時間枠を定義できるようになったらどうなるだろうと考えました。その時間枠を定義し、SageMakerが残りのすべてを処理するというものです。
そのため、本日私はSageMaker Hyperpod Flexible Training Plansの導入を非常に嬉しく発表します。
[拍手]
これは驚くべき機能です。トレーニングプランを迅速に作成し、自動的にキャパシティを予約してクラスターをセットアップし、モデルトレーニングジョブを作成し、データサイエンスチームがモデルをトレーニングするのに数週間の時間を節約できます。
HyperpodはEC2キャパシティブロックを基盤として、タイムラインと予算に基づいて最適なトレーニングプランを作成します。例えば、このケースでお見せした例では、Hyperpodは個別の時間スライスとAZを提示してモデルの準備を加速します。また、効率的なチェックポイントと再開機能を備えたHyperpodは、インスタンスの中断を自動的に処理し、手動の介入なしでトレーニングを継続できるようにします。
これは非常にダイナミックで、まさにゲームチェンジャーとなるでしょう。
SageMaker Hyperpod Task Governance (13:40)
さて、お客様が直面しているもう1つの課題は、複数のチームやプロジェクトにまたがるコンピュートリソースを効率的に管理する方法です。私たちは有限で高価なコンピュートリソースを持つ世界に住んでおり、それらを最大限に活用し、効率的に割り当てることは難しいことがあります。この作業は通常、スプレッドシートやカレンダーを使って行われています。
例を見てみましょう。例えば、TRN2のような1000個のアクセラレータを日中使用していると想像してください。日中は推論のために多く使われますが、夜間にはこれらの高価なリソースの大部分がアイドル状態になっています。推論の需要が非常に低い場合、リソース配分の戦略的アプローチがなければ、機会を逃しているだけでなく、コストも無駄にしていることになります。
この問題は単純だと思われるかもしれません。「1つのプロジェクトから別のプロジェクトにキャパシティを移動するスクリプトを書けばいい」と思うかもしれませんが、現実の世界では、複数の推論プロジェクト、トレーニングプロジェクト、ファインチューニングや実験プロジェクトが同時に実行されており、すべてが同じコンピュートリソースを争う状況を想像してください。これは、私たちが生成AIで急速にスケールした際にAmazon内部チームで直面した現実でした。
そこで、この重労働を取り除くために、私たちはコンピュートリソースを動的に割り当てるソリューションを開発しました。また、リアルタイム分析とコンピュートリソースの割り当てと利用状況に関する洞察を提供する仕組みも構築しました。これにより、Amazon内のプロジェクト間で加速されたコンピュートリソースの利用率を90%以上に向上させることができました。
この成功事例をCIOやCEOに共有したとき、彼らは「私たちもスケールする中でまさに同じ問題に直面している」と語り、このソリューションをSageMakerで活用したいと言いました。そこで本日、私たちはそれを実現しています。私は、SageMaker Hyperpod Task Governanceを発表できることに非常に興奮しています。
[拍手]
この革新により、生成AIタスクの優先順位付けと管理を自動化し、コンピュートリソースの利用率を最大化することで、コストを最大40%削減することができます。Hyperpod Task Governanceを使用すると、推論からファインチューニング、トレーニングなどのさまざまなモデルタスクにわたる優先順位を簡単に定義できます。
また、ビジネスリーダーや技術リーダーとして、チームやプロジェクトごとにコンピュートリソースの上限を設定でき、Hyperpodはリソースを動的に割り当てて、最高優先度のタスクにリソースが確実に割り当てられ、時間内に完了するようにします。リソースの利用状況を監視し、タスクに関するリアルタイムの洞察を得ることで、優先順位と割り当てを継続的に調整し、待ち時間を短縮することも可能です。
SageMakerのパートナーアプリとモデル開発の効率化 (16:50)
現在、顧客はSageMaker AIの力を利用してMLモデルを構築およびトレーニングしていますが、同時に、MLOpsライフサイクルのさまざまな部分をサポートするこれらの特殊なサードパーティアプリケーションを使用したいと伝えてきました。例えば、これまでにComet、DeepJax、Fiddler、Lakheraなどの人気のAIパートナーアプリがあります。これらのアプリは、トレーニング実験の追跡と管理など、ユースケースに応じた幅広いタスクをカバーしています。
モデルの品質を評価したり、運用中のモデルのパフォーマンスを監視したり、AIアプリをセキュリティ脅威から保護したりすることができます。ただし、これらのパートナーアプリをSageMaker上で使用することを好んでいる一方で、SageMakerとこれらを組み合わせる作業は時間がかかると伝えられました。例えば、適切なソリューションを見つける必要があり、その後これらのアプリケーション用のインフラストラクチャを管理しなければならず、MLOpsパイプラインをスケールさせる際には時間とリソースを費やす必要がありました。また、データのセキュリティについても懸念され、データを複数のサードパーティツールを通じてVPC外に共有したくないという声もありました。
これらの特殊なアプリの力をSageMaker AIの管理機能とセキュリティと組み合わせることを簡単にしたいと考えました。そのため、本日、これらのすべてのパートナーアプリをSageMaker上で展開できるようになったことを発表できることを嬉しく思います。
[拍手]
これらのアプリは、インフラのプロビジョニングや管理を必要とせず、SageMaker開発環境のセキュリティとプライバシーを確保したまま、シームレスで完全に管理された体験を提供し、モデル開発ライフサイクルを加速します。これらの機能を皆さんに使っていただけることを非常に楽しみにしています。また、SageMaker AIにさらに多くのパートナーアプリを追加していく予定です。
しかし、これらの進展はすべて今日のSageMakerに組み込まれています。私たちは、トレーニング効率を最大化し、コストを削減することで、基盤モデルの構築とスケール方法を根本的に再考しています。
Autodeskの生成AI活用による3D設計の革新 (19:40)
次に、AutodeskのEVP兼CTOであるRaji Arasu氏を招き、SageMakerを活用して3D設計をどのように革命化しているかを紹介していただきます。
基盤モデル「Project Bernini」 (19:40)
[音楽]
これを行う人々のために。
[音楽]
象徴的な建造物、画期的な製品、記憶に残るエンターテインメント。私たちが日々目にする驚くべきものの多くは、Autodeskのソフトウェアで作られています。Autodeskは40年以上にわたり、設計と製作の分野で先駆者として活躍してきました。
今日では、皆さんのお客様と同様に、私たちのお客様も前例のない需要と変革に直面しています。建築家や建設業者は、タイムリーで手頃な価格で持続可能なインフラや建物を建設するという大きなプレッシャーにさらされています。製造業者は、サプライチェーンの大幅な遅延や労働力不足と格闘しながら、新製品を迅速に市場に投入することを求められており、あらゆる規模の制作スタジオは、消費者の需要と絶え間ないコンテンツの需要に追いつくのに苦労しています。
多くの皆さんと同様に、これが私の情熱をかき立てる要因です。それは、今日のイノベーターやクリエイターが直面している多次元的な課題を解決する機会です。より速く、コストを削減し、より少ないリソースで。そして、持続可能性をすべての段階で確保することを忘れないようにします。
こうした破壊的な力に先んじるために、AutodeskはAWSによって実現された3D生成AIをリードしています。私たちは、現在存在するものとはまったく異なる生成AI基盤モデルを開発しています。私たちの基盤モデルが他と異なる点は何でしょうか?まず、設計と製作におけるAIの入力と出力は非常に複雑です。
10億パラメータを持つモデル「Project Bernini」は、これらの課題を克服した代表例です。他のモデルとは異なり、テキスト、スケッチ、ボクセル、ポイントクラウドなど、クリエイターの設計プロセスを再現するマルチモーダル入力を受け取ります。次に、汎用AIとは異なり、これらのモデルは2Dおよび3D CADジオメトリを生成するよう設計されており、物理法則に基づく空間的および構造的推論を必要とします。
私たちの基盤モデルはジオメトリとテクスチャを区別し、お客様が視覚的に魅力的であるだけでなく、精度と正確さをもって構築可能かつ製造可能な設計を作成できるようにします。私はこの進化が大好きです。この挑戦をずっと続けていきたいと思います。
Autodeskは、物理的世界とデジタル世界をグローバルに数百万のプロジェクトで結びつける深い専門知識と最先端のAI研究を組み合わせ、この課題に取り組むための独自の立場にあります。
AWSとの連携 (23:30)
この野心的な基盤モデルの構築プロジェクトを始めたとき、私たちはクラウドデータとAIのパートナーであるAWSに頼りました。この15年間で、最初の課題は、大規模な設計ファイルから膨大な知識を抽出し、それをクラウドベースの細かいデータに変えることでした。
例えば、オフィスビルの1フロアが約100MBの設計データを含んでいると想像してください。それを30階建ての高層ビルに拡張すると、3GBのデータになります。さらに、オフィスビルや住宅タワー、支援インフラを含む複雑な開発プロジェクトにスケールアップします。ちなみに、これは私たちが手がけている数百万のプロジェクトのうちの1つにすぎません。
これらは、異なるサイズ、形状、ワークロードを持つ何十億ものオブジェクトとペタバイトのデータを生み出しています。DynamoDBを主要なデータベースとして使用し、これらの何十億ものオブジェクトを処理できる標準データモデルを作成しました。確かに、DynamoDBを限界まで活用しました。数百のパーティションにまたがる書き込みを処理し、AWSと提携して、高スループットとほぼゼロのレイテンシーを実現するためにスケールと調整を行いました。
次に取り組んだのはデータ準備でした。膨大で複雑な履歴データを扱う中で、特徴付け、特徴生成、トークン化といった重労働なタスクを処理できるかどうか、パイプラインに不安がありました。しかし、EMR、EKS、Glue、SageMakerを組み合わせることで、スムーズにスケールアップするだけでなく、高品質で準拠した結果を提供することができました。
同じクラウド内にすべてを維持するという大きな副次的効果として、運用の合理化とセキュリティ姿勢の向上が得られました。次の課題は、基盤モデルを迅速に、かつコストを抑えてトレーニングすることでした。これは、皆さんも心配されていることだと思います。
さまざまなGPUオプションがある中で、SageMakerを使えば、インフラ管理の手間をかけずに、さまざまなインスタンスを簡単にテストできます。そして、データ準備、モデル開発、顧客向けAI機能の開発といった、私たちが最も得意とすることに専念できます。Elastic Fabric Adapterはパフォーマンスをさらに向上させ、分散型Rayジョブを高速化し、トレーニング時間を50%短縮しました。私たちの期待をはるかに上回る成果です。
最後の課題は、大規模な基盤モデルの推論の複雑さを管理することでした。SageMakerの自動スケーリングとマルチモデルエンドポイントを使用することで、リアルタイム推論とバッチ推論の両方をシームレスにサポートし、高スループット、最小限のレイテンシー、最大限のコスト効率を実現しました。
SageMakerの効果 (26:56)
これをすべてまとめると、SageMakerと関連するAIサービスを基盤としたこの機械学習環境は、Autodeskにとってゲームチェンジャーとなりました。基盤モデルのデプロイメントを半分に短縮しました。AIの生産性を30%向上させながら、運用コストを一定に保ちました。
ちなみに、これは内部的な生産性や効率性を超えたものです。基盤モデルを活用して構築したAI機能を顧客に提供し始めましたが、顧客はこれを大いに評価しています。製品設計においてスケッチの制約を自動生成し、部品を識別して分類する機能です。
Swamiが言っていたことを聞きましたよね。それは単なる近代的な開発ではなく、直感的であることを確保する人間のインタラクションを保証するものです。これらは顧客のために設計パートナーとして機能する直感的なAI機能であり、材料の強度やコストなどのパラメータをバランスさせ、最適な設計に集中できるようにします。
すべては退屈なタスクを最小限に抑え、創造性を最大限に引き出すためです。AWSと協力して構築していることに非常に興奮しています。
AIを活用して工場がほぼダウンタイムゼロで生産ラインを即座に出荷できる未来を想像してください。この会場にいるメディアやエンターテインメント関係者の皆さんのために。例えば、アニメーションキャラクターを変更したり、仮想シーンを数秒で埋め尽くすことができるとしたらどうでしょう?
建築家や建設業者のためには、AIが既存の構造を分析し、問題を特定し、修正を提案することができます。もしAutodeskがAIチームの開発速度を5倍に加速できるとしたらどうでしょう?それが可能になったのはAmazon SageMaker Unified Studioのおかげです。
AWSと共に、私たちは現在のクリエイターを支援するだけでなく、次世代のクリエイターがよりスマートで持続可能な世界を築くようにインスパイアしています。例えば、LA 2028年のオリンピック・パラリンピック競技大会のデザイン、未来のソーラーパワーによるスマートビークルの作成、または海底を再生するサンゴ礁の骨格の設計などが含まれます。私たちはお客様の未来を形作ることで、彼らが何でも作り出せるようにし、まだ始まったばかりです。
Amazon Bedrockによる最新モデルとツールの拡張 (29:42)
Amazon Bedrock (29:42)
[音楽]
ありがとう、Rajeev。長年の共同作業の中でAutodeskが成し遂げたイノベーションの数々に感銘を受けています。生成AIによって3D CADの限界を押し広げる姿を見て興奮しています。大学時代の工学部の学生だった私には、デザインがこれほど完全に変革されるとは思いもしませんでした。
さて、次に進みましょう。AWSは基盤モデルを構築しスケールする方法を再構築し続けていますが、これらの基盤モデルを活用して生成AIアプリを構築し展開する推論プロセスも支援しています。推論はこれらの基盤モデルがラボから飛び出し、実際の環境で産業を変革し、命を救い、あるいは日常生活を少し魔法のようにするための決定を支援する場です。
しかし、多くの方が大規模な推論を実行しようとする中で、モデルをデータでカスタマイズするためのますます高度なツールが必要になるでしょう。機械学習科学者はこれらの進化するニーズを管理する専門知識を持っていますが、生成AIアプリの構築を任されている多くのアプリ開発者はそうではありません。
そこで私たちはAmazon Bedrockを構築しました。Bedrockは生成AI推論のための構築ブロックです。これは、アプリ開発者が最新のモデル、革新、ツールにすべてアクセスできるようにする完全管理型サービスであり、生成AIアプリを簡単に構築しスケールすることができます。
私たちは推論関連のあらゆるタスクに適したツールを備えたシームレスな開発者体験を創出するために投資してきました。例えば、最適なモデルの選択、コスト・レイテンシー・精度の最適化、データを使ったモデルのカスタマイズ、安全性と責任あるAIチェックの適用、AIエージェントの構築と編成などです。Bedrockでシームレスな開発者体験を創出するために多大な投資を行ってきましたが、生成AI開発者が直面しているさらなる障害にも引き続き取り組んでいます。
モデル数の拡大 (32:11)
本日は、これらの領域の各々についてさらに詳しく掘り下げます。まず、適切なモデルの選択と最適化から始めます。最初に、開発者はアプリケーションに適したモデルが必要です。そのため、私たちは事実上あらゆる想像可能なタスクに対応できる多様な選択肢を提供しています。
これには、Anthropic、Meta、Mistral、AI、Amazon、Stability、Cohereなど、主要プロバイダーの強力なモデルが含まれます。この場にいる多くの方々はこれらのモデルのいくつかを試されたことがあると思います。そして、AIのブレークスルーが毎週のように起きている時代において、私たちは最新の革新にアクセスできるよう、継続的に投資しています。
例えば、3月にはMistral AIの高性能フロンティアモデル(オープンウェイト)のサポートを最初に追加し、7月にはMetaの405B Llama 3という世界最大の公開LLMのサポートを追加しました。そして9月には、Stability AIの最高の画像生成モデル3つをBedrockに提供しました。
さらに先月、Anthropicの画期的なClaude 3のサポートを発表しました。Haikuモデルはコンピュータインターフェースを認識し操作する能力を持っています。そして昨日、Amazon Bedrockの新しいNovaモデルファミリーを発表しました。これにはマルチモーダル理解モデル、ビデオや画像生成モデル、価格性能に優れたテキストからテキストへのモデルが含まれます。
Andyが言ったように、Amazonの内部チームはすでにこれらのモデルのいくつかを活用しており、初期の結果は非常に驚くべきものです。
Poolside in BedRock (32:11)
しかし、Amazon流に、顧客がアクセスできるモデルの数を拡大する取り組みを止めることはありません。これには、最新のスタートアップからのホットなモデルも含まれます。だからこそ、本日、Poolsideが来年初頭にBedrockに加わることをお知らせできるのを嬉しく思います。
[拍手]
Poolsideは、ソフトウェア開発のワークフロー向けに設計された非常に素晴らしいスタートアップであり、そのアシスタントはMalibuおよびPointモデルによって駆動されています。彼らはコード生成、テスト、ドキュメント作成、その他の開発タスクに優れています。AWSは、Poolsideアシスタントおよび完全管理型モデルへのアクセスを提供する最初のクラウドプロバイダーです。
Stability AI in BedRock (32:11)
開発者の課題を解決するモデルに加えて、最新の画像生成モデルでイノベーションを推進できるようにしています。そのため、本日、Stability AIのStable Diffusion 3.5モデルがBedrockに登場することを発表できることに興奮しています。
[拍手]
この高度なテキストから画像への変換モデルは、SageMaker Hyperpodでトレーニングされ、Stable Diffusionファミリーの中で最も強力なモデルです。テキストの説明から高品質の画像を生成し、コンセプチュアルアートや視覚効果のプロトタイピング、詳細な製品イメージを作成できます。
Luma AI in BedRock (32:11)
最後に、多くの方が最先端の動画生成モデルへのアクセスを希望していると教えてくれました。そのため、ユースケースに応じてさらに多くのオプションを追加しています。本日、Luma AIが間もなくBedrockに加わることを発表できるのを嬉しく思います。
[拍手]
Lumosモデルの革新は、AI支援による動画制作において大きな進展をもたらし、テキストや画像から高品質でリアルな動画を効率的かつ優れた品質で生成することを可能にします。Bedrockのお客様は、Lumosの最新かつ最先端の視覚AIモデルをいち早く利用できるようになります。最新の革新についてさらに詳しくお話しいただくために、Luma AIのCEOであるAmit Jain氏をお招きします。
[音楽]
Amit Jain, Luma AI CEO (36:43)
ありがとうございます、Swamiさん。この紹介に感謝し、今日ここにいることに非常に興奮しています。Lumosの目的は、私たちと協力し、人間が驚異的なことを達成するのを助ける次世代のインテリジェンスを構築することです。
インテリジェンスの未来は、非常に豊かで、視覚と音声に満ちたものになるでしょう。これを実現するには、言語モデルをはるかに超えるAIが必要です。私たちの世界を見て理解し、非常に高速に動作してインタラクティブになるAIです。それはクリエイティブパートナーとしてAIと協力するようなものです。
Swamiさんが今日発表したように、Luma AIモデル、特に新しい動画AIモデルであるLuma V-Ray 2をBedrockに導入する準備を進めています。これが何であり、なぜそれが非常にエキサイティングであるかを説明させてください。
Luma Ray 2は、最も能力が高く、高品質なテキストから画像および動画を生成するモデルです。これは、新しい生成モデルアーキテクチャによって実現され、全く新しいデザイン、マーケティング、動画制作ワークフローを可能にするようにゼロから構築されました。
ご覧の通り、Ray 2で完全に作成されたこれらの動画は、テキスト指示や画像フレーム、または撮影した動画から非常にリアルな制作品質の動画を生成します。Ray 2は、構成、色、カメラ、動作に対する画期的な新しいコントロールも可能にします。これにより、ブランドのアイデンティティ全体をモデルに取り込み、非常に高い制御度で適切に見えるものを作成できます。
Ray 2は、1分間の動画全体を作成することで、動画生成の最先端をさらに押し広げ、キャラクターやストーリーの一貫性を保ちながら、それを達成します。そして史上初めて、驚異的なリアルタイムスピードでこれを行います。
Ray 2を使用すると、考えていることが目の前に現れるような感覚になります。これにより、映画デザインやエンターテインメントの新しいワークフローのクラスが可能になります。私たちは、Ray 2がクリエイティブAIの世界における大きな進歩だと考えています。そして、この素晴らしいモデルファミリーとその機能が、Bedrock内で利用可能となり、皆さんがそれを基に構築できるようになります。
ここで、これらのモデルがどのようにトレーニングされたかを少し裏側をご紹介します。私たちのモデルは、これを可能にするために、最大のLLM(大規模言語モデル)の1000倍のデータを学習しています。このトレーニングランのすべての側面を最大限に最適化して、使用するコンピュートクラスターから最大のスループットを得るようにしています。
これにより、AWSで使用するコンピュートリソースから絶対的な最大性能を引き出すことが求められます。そして、これを可能にするためのクラウドプロバイダーを見つけました。私たちは、GPUコンピュートスペクトラム全体にわたってさまざまなオプションを実験した後、Amazon SageMaker HyperPodを選択しました。
HyperPodは、私たちにとって最も信頼性が高く、スケーラブルなクラスターであることが証明されました。そのため、AWSへのコミットを4倍に増やしました。署名後わずか4か月で、これらの次世代モデルをトレーニングするために必要な基盤を確立しました。
このスタックのすべてが非常に調和して機能する必要があります。GPU、インターコネクト、電力、ネットワーク、ストレージ、ソフトウェアのすべてが、非常に高い信頼性で機能し、安定したトレーニング環境を構築する必要があります。これが少しでも欠けると、フラストレーション、コンピュートの非効率利用、市場投入の遅延を引き起こします。
私たちは、AWSのインフラストラクチャがこれに適していると感じています。グローバル規模のコンピュートを運営するAWSの専門知識は、HyperPodのスケーラビリティに表れています。
ここにいる皆さんの中には、急成長するスタートアップとして、私たちが驚異的なスピードで実行する傾向があることをご存じの方もいるでしょう。AWSのチームは、オンボーディングから評価、最適化まで、私たちのペースに合わせて動き、HyperPod上でRay 2を記録的な速さでトレーニングするのを支援しました。
コンピュートに加えて、AWSのチームはディストリビューションおよび市場投入戦略においても私たちと深く協力し、Lumaの技術を世界中のお客様に届けるのを支援しました。
これらの新しいモデルは、次世代のインテリジェンスを構築するという私たちの使命に一歩近づくものです。それは、クリエイティブで豊かで、視覚と音声に満ちたものです。言語モデルだけでは、この未来を引き寄せることはできません。
Luma Bのお客様向けに構築している大規模トレーニングおよびデータシステムは、人類のデジタルフットプリント全体から学ぶことを目的としています。今日、Lumaのモデルはすでに、ファッションデザイナー、スタジオ、広告代理店、マーケティングチーム、視覚的な思考を持つ人々によって、アイデア作成から生産に至るワークフローで世界中で使用されています。そして間もなく、これらのモデルをAWS上でお試しいただけるようになります。
垂直統合型の研究および製品会社として、私たちはこれらのモデルをトレーニングして不可能な製品を可能にしています。私たちの非常に人気のある製品からのフィードバックも、継続的にモデルを強化しています。そして、私たちのAPIを使用する皆さんすべてが、これらの貴重な利益を享受できます。
ありがとう、Swamiさん。Lumaがre:Inventの一部になるのを支援してくれて、また、新しいモデルをBedrock上で試してみて、一緒に未来を築きましょう。
Amazon Bedrock Marketplace (43:19)
[音楽]
Luma AIは、AIの力を使って動画コンテンツ制作の限界を押し広げています。適切な基盤モデルは、信じられないほどの可能性を開放できます。そして、業界で最も革新的なモデルプロバイダーへのアクセスにより、Bedrockはさまざまなユースケースやモダリティにおいて可能性の世界を切り開いています。
これらのモデルは幅広いタスクをサポートできますが、新興の特化型タスクモデルへの関心が高まっていることも理解しています。例えば、薬剤発見や炭素捕捉などの分野で進化を遂げる、進化スケールフロンティア言語モデルなどです。また、IBMのGranatファミリーのモデルは、幅広いビジネスアプリケーションを加速しています。
顧客は、これらの特化型モデルの力をBedrock上のすべての開発者ツールと組み合わせて、ビジネスの価値をさらに高めたいと考えています。そのため、本日、Bedrock Marketplaceの発表を非常に誇りに思います。
[拍手]
Bedrock Marketplaceは、主要プロバイダーから提供される100以上の新興および特化型基盤モデルへのアクセスを可能にします。Bedrockコンソールを通じて、これらの新興および特化型モデルを発見し、統一された体験でテストすることで、開発ワークフローを効率化できます。
これらのモデルをデプロイした後は、Bedrockの統一APIやナレッジベース、ガードレール、エージェント、およびこれらの機能を活用し、初日からBedrockに組み込まれたセキュリティとプライバシー機能を利用できます。
Bedrockは、あらゆるユースケースに最適なモデルへのアクセスを提供することをお約束します。しかし、モデルの選択が重要である一方で、それは単なる第一歩にすぎません。
Bedrockでのプロンプトキャッシングのサポート (45:54)
推論を構築する際、開発者はコストやレイテンシーなど、慎重なバランスを必要とする要素を特に評価するために多くの時間を費やします。というのも、どちらか一方を最適化すると、通常はもう一方に妥協が必要になるからです。これは、コストと応答レイテンシーがモデルの精度と逆相関しており、より高性能で高度な知能を持つモデルがより多くのアクセラレータハードウェアを消費するためです。
今週、私たちは、より大きく正確なモデルから小さく効率的なモデルに特定の知識を簡単に転送できる新しいモデル蒸留機能を含む、ユースケースに最適なバランスを見つけるのを容易にする新機能を発表しました。これにより、処理速度が最大500%向上し、コストが最大75%削減されます。また、最新のAIハードウェアや幅広い主要AIモデル向けのその他のソフトウェア最適化にアクセスできるレイテンシー最適化推論キューも導入しました。
しかし、プロセスをさらに最適化することで、顧客のためにさらに多くの課題を解決できることを知っていました。推論は、モデルに入力を与え、出力を生成するための指示であるプロンプトから始まります。プロンプトをモデルに送信し、モデルが応答を生成する際に、トークン(モデルが理解できる言語の断片)が生成されます。送信するトークンが多いほど、つまりプロンプトが長いほど、コストが高くなります。
このプロセスがユースケースに最適化されていない場合、特にプロンプトが頻繁に繰り返される場合、トークン生成コストが急速に増加する可能性があります。例えば、法律事務所では毎日数千件の新しい文書が処理されます。弁護士が買収の最新状況を知りたい場合、支払い構造や保証の有無などについて質問します。これらの質問をする際、文書内のコンテキストが必要になるため、プロンプトの一部として送信されます。これにより、クエリの応答時間が遅くなり、コストが増加します。
この問題をキャッシングで解決できると考えました。このシナリオでは、文書全体をキャッシュして、一度トークン化を生成した後、以降のプロンプトで再処理をスキップできるようにします。これにより、入力トークン処理をスキップでき、正確性を損なうことなく、コストとレイテンシーを削減します。
そのため、本日、Bedrockでのプロンプトキャッシングのサポートを発表できることに興奮しています。
[拍手]
プロンプトキャッシングは、コスト削減の大きな効果を発揮します。この機能を使用することで、応答レイテンシーを最大85%、コストを最大90%削減できます。
Amazon Bedrock Intelligent Prompt Routing (49:34)
対応するモデルに対して。この機能により、繰り返されるプロンプトの最適化に加えて、各ユースケースに適したモデルを簡単にルーティングすることも可能です。一部のプロンプトでは高度な高性能モデルが必要ですが、ある時点では非常にシンプルで高速なモデルが適している場合もあります。開発者は通常、各ユースケースに最適なモデルを見つけるために、さまざまなモデルをテストするのに多くの時間を費やします。
例えば、旅行計画ウェブサイトを管理している場合、家族と12月に訪れるのに最適なプランを提案してほしいといった単純なクエリをテストします。同じモデルファミリーの3つのモデルに対してそれを評価し、速度、精度、コストのバランスを確認します。すると、小型で低コストなモデルAが精度とパフォーマンスのバランスに適していることがわかります。
次に、複雑なシナリオをテストします。例えば、ヨーロッパ各地を訪れる7日間の旅程を作成し、最終日にパリで友人に会いたいといったリクエストです。このクエリを各モデルで評価した結果、最も高度なモデルCがこのリクエストのニュアンスを処理できることがわかりますが、シンプルな問題には過剰な性能となる場合があります。これを何百ものユースケースや質問で繰り返し、各リクエストをどのモデルにルーティングするかを手動でコード化する必要があると想像してみてください。また、顧客リクエストパターンが変化したり、新しいモデルが利用可能になったりするたびにこれを繰り返す必要があります。
これを簡単にするために、すべてのユースケースに最適なプロンプトを適切なモデルにルーティングするのを容易にしたいと考えました。そのため、本日、Bedrockでの新機能であるインテリジェントプロンプトルーティングの発表を非常に喜ばしく思います。
[拍手]
この機能は、プロンプトをモデルファミリー内の異なる基盤モデルにルーティングし、応答のコストと品質を最適化するのに役立ちます。使用したいモデルを選択し、各リクエストのコストとレイテンシーの閾値を設定するだけで、Bedrockがリクエストを最適なコストで最良の応答を提供できるモデルに動的にルーティングします。
実際、インテリジェントプロンプトルーティングを使用すると、精度を損なうことなくコストを最大30%削減できます。この機能により、さまざまなユースケースで推論の最適化から試行錯誤を排除できます。
Kendra GenAI Index (52:36)
次に、顧客にユニークな体験を提供するためには、これらのモデルを独自のデータでカスタマイズすることが重要です。そのための最も簡単な方法は、レトリーバル強化生成(RAG)です。RAGを使用すると、独自のデータでプロンプトを強化し、顧客の質問やリクエストに対してより良い応答を作成できます。
例えば、オンラインコンピュータ小売業者を運営していて、顧客が複雑な互換性の質問をよくする場合を考えます。顧客が最近のラップトップ注文のステータスについてAIチャットアプリに質問するとき、注文管理システムや配送データベースのデータを含めることで、モデルにさらに多くのコンテキストを提供し、非常に正確で関連性の高い応答を生成できます。
RAGのプロセスは一見シンプルに見えますが、実際には手動の重作業が多く含まれます。最適な埋め込みモデルを使用してこのデータをインデックス化し、埋め込みをベクターデータベースに保存し、応答生成時にカスタムのレトリーバルメカニズムを作成する必要があります。その後、適切なモデルでプロンプトを補強する必要があります。このプロセスは、RAGの構築を非常に難しくします。
Bedrock Knowledge Basesを使用すれば、RAGワークフロー全体を簡単に管理できます。Knowledge Basesは、コンテキストと関連性のあるデータで応答をカスタマイズできる完全管理型RAG機能です。これにより、カスタムコードを記述したり、データソースを統合したり、クエリを管理したりする必要がなくなります。Ericsson、F1、Travelersといった顧客は、Knowledge Basesを使用してより正確で魅力的なアウトプットを生成しています。
Bedrock Knowledge BasesはRAGワークフローの強力な基盤を提供しますが、広範なエンタープライズデータソースに対する効率的で非常に正確なデータ取得は課題です。ここで役立つのがAmazon Kendraです。Kendraは、機械学習を活用してより関連性の高いデータを浮き彫りにする、インテリジェントなエンタープライズ検索サービスです。Kendraは、ベクトル埋め込みを作成および管理するのを支援し、その意味理解を活用してアプリケーションの取得精度を向上させることができます。また、40以上のエンタープライズソースに対応したビルトインコネクタを備えています。
顧客は、最適な埋め込みモデルの選択、ベクトル次元の最適化、取得精度の微調整を支援する、アウトオブボックスのベクトルインデックスを求めていました。また、Knowledge Basesや生成AIスタック全体とのシームレスな統合も望んでいました。そのため、本日、Kendra GenAI Indexを発表できることを誇りに思います。
この機能は、RAGおよびBedrock向けに、40以上のエンタープライズデータソースへのコネクタをサポートする管理型データ取得を提供します。Bedrock Knowledge Baseとして利用し、エージェント、プロンプトフロー、ガードレールといった機能を備えたAIパワードアシスタントを構築できます。また、このコンテンツを他のユースケース、たとえばAmazon Qビジネスアプリケーションでも活用できます。
Bedrock Knowledge Basesが構造化データ取得をサポート (56:01)
エンタープライズアプリ全体でデータを接続するのを容易にすると同時に、GenAIアプリを構築する際、データウェアハウスやデータレイクにある構造化データ、文書やPDFといった非構造化データ、テキストと画像や動画を組み合わせたマルチモーダルデータを活用することを簡単にすることを目指しています。まず構造化データに注目してみましょう。
企業はすべての運用データをデータウェアハウスやデータレイクに保存する傾向があります。しかし、RAGで構造化データを利用可能にするには、単にテーブルの1行を検索する以上のことが必要です。たとえば、「ワシントン州で先月の収益による最も重要な製品カテゴリーは何でしたか?」という自然言語のクエリを考えます。ウェアハウスがこのリクエストを処理するには、SQLクエリを作成してテーブルをフィルタリングし、結合し、データを集計する必要があります。このプロセス、つまり自然言語をSQLに翻訳することは、文書におけるベクトルストアと同じくらい構造化データにとって重要です。
多くの人が「Swami、なぜこれをするのがそんなに難しいのですか?」と考えるかもしれません。LLMにプロンプトを与えるだけで済むのではないですか?実際には、それほど単純ではありません。効果的に行うには、カスタマイズされたスキーマ埋め込み、クエリ解析、データサンプリング、クエリ修正ループといった技術を実装する必要があります。さらに、プロンプト注入攻撃のようなセキュリティ上の懸念にも対応する必要があります。こうしたタスクを管理するために、開発者は正確なSQLクエリ生成のための複雑なカスタムSQLソリューションを構築するために多くの時間を費やすことになります。
本日、私たちはこの問題を解決します。Bedrock Knowledge Basesが構造化データ取得をサポートするようになったことを発表できることを誇りに思います。
[拍手]
この機能は、多くの新しいGenAIユースケースを解放するでしょう。これは、GenAIアプリ向けに構造化データをネイティブにクエリできる、最初の完全管理型RAGソリューションの1つです。Sagemaker、Lakehouse、Amazon Redshift、そして最近リリースされたIcebergサポート付きのS3テーブルにあるデータを自然言語でクエリすることができます。Knowledge Basesは自動的にSQLクエリを生成して実行し、データを取得し、モデルの応答を強化します。
さらに、この機能はスキーマとデータに適応し、クエリパターンから学び、精度を高めるためのカスタマイズオプションを提供します。RAGで構造化データに簡単にアクセスできるようになったことで、企業内でより強力で知的なGenAIアプリケーションを生成できるようになります。
Amazon Bedrock Knowledge BasesがGraphRAGをサポート (59:13)
ただし、多くの人がRAGアプリケーションを構築し続ける中で、関連性と精度に対する期待が高まっていることを理解しています。RAGで関連性のある応答を生成することは特に難しい課題です。なぜなら情報が単一の文書に含まれているわけではなく、複数のソースや文書に分散しているからです。
たとえば、スマートホームデバイスの故障についてオンライン小売業者に問い合わせる顧客のシナリオを考えてみましょう。オンラインアシスタントは、顧客の購入履歴、過去のチケット、製品の詳細、関連するナレッジベース記事など、複数の情報を迅速に結びつける必要があります。しかし、これらのさまざまなデータソースをリンクして、顧客に合わせた関連性のある応答を提供するのに苦労します。
この課題を解決するには、これらすべての情報をナレッジグラフに取り込む必要があります。ナレッジグラフは、顧客が購入履歴やサポートチケットに接続されるなど、データ間の関係を接続することで、情報をウェブのように関連付けます。ナレッジグラフを使用することで、システムは最新の購入を既知の問題に結び付け、適切なサポートを見つけ、解決策を提案することが可能になります。
しかし、ナレッジグラフを使用したRAGシステムの構築には高度な専門知識が必要です。開発者は、グラフをRAG対応アプリケーションに統合するためのカスタムコードを追加で記述し、さらにプロンプトを強化して関連性のある応答を作成するために多くの時間を費やさなければなりません。このプロセス全体を簡単にすることができると確信していました。そのため、本日、Bedrock Knowledge BasesがグラフRAGをサポートするようになったことを非常に喜ばしく思います。
[拍手]
この機能はAmazon Neptuneを使用して自動的にグラフを生成し、さまざまなデータソース間の関係をリンクします。これにより、グラフの専門知識がなくても、より包括的なGenAIアプリケーションを作成できます。Knowledge Basesはまた、情報源を明示的にし、関連性を強化することで、説明性を向上させ、事実確認を容易にします。GraphRAGのサポートにより、顧客は単一のAPIコールでより正確な応答をアプリケーション向けに生成できるようになります。
Amazon Bedrock Data Automation (1:01:55)
次に、開発者がGenAI用のマルチモーダルコンテンツを扱う際に直面する課題を見ていきましょう。ほとんどのエンタープライズデータは非構造化で、文書、動画、画像、音声ファイルといったマルチモーダルコンテンツに含まれています。このデータを簡単にGenAIアプリケーションで活用できたら素晴らしいでしょう。しかし、非構造化データは抽出が難しく、処理して準備する必要があります。
いくつかの例を見てみましょう。ストリーミングサービスで働いており、TV番組や映画内に関連する広告を知的に配置するアプリケーションを開発したいとします。これを実現するには、数十万時間のコンテンツを分析して動画をインデックス化し、並行して広告をインデックス化し、適切な広告を選び、完璧なタイミングで配置する必要があります。
または、大手銀行で働いており、各ローンパッケージ内の非構造化データを活用する自動ローン承認ワークフローを構築したい場合も考えられます。この場合、各文書を分類し、データを抽出、正規化、変換してからデータベースにロードする必要があります。業界や業種にかかわらず、多くの人がこのプロセスをデータベースの世界ではETLと呼んでいることを知っているでしょう。
このマルチモーダルコンテンツをGenAIで活用するのを簡単にするため、Bedrock Data Automationを発表できることを非常に喜ばしく思います。
[拍手]
この機能は、非構造化マルチモーダルコンテンツを自動的に構造化データに変換し、GenAIアプリケーションを支援します。コードを書く必要はありません。これは非構造化データ向けのGenAIパワードETLのようなものだと思っています。この機能は、すべてのマルチモーダルコンテンツをスケールで自動的に抽出、変換、処理し、単一のAPIで利用可能にします。
スキーマに合わせたカスタム出力を生成し、GenAIアプリケーションのためにマルチモーダルコンテンツを解析したり、変換されたデータを分析のために活用することができます。Bedrock Data Automationは、元のコンテンツに基づく応答の信頼性を向上させ、幻覚リスクを軽減します。
Symbioのような顧客はこの機能を利用して成功を収めています。この企業は保険請求処理ソリューションを提供しており、保険請求や医療請求書をアプリケーションデータに抽出、変換するプロセスを簡素化し、請求の効率を高め、顧客の対応時間を短縮しています。これらの更新により、すべてのデータを活用して、コンテキストを意識したより知的なGenAIアプリケーションを構築できるようになります。
Amazon Bedrock Guardrailsが、マルチモーダルな有害性検出をサポート (1:05:09)
しかし、GenAIがさまざまなモデルやデータタイプにわたって変革を続ける中で、開発者が適切なセーフガードを確保することが難しい場合があります。そこで私たちはBedrock Guardrailsを提供しています。これにより、アプリケーション向けの設定可能なセーフガードを実装できます。
Guardrailsは、基盤モデルやBedrockがネイティブに提供する保護よりも最大85%多くの有害なコンテンツをブロックでき、暴力や侮辱などの有害なテキストコンテンツを検出してブロックするコンテンツフィルターを提供します。また、幻覚を検出してフィルタリングするコンテキストグラウンドチェックも提供します。
今週、私たちは新しい自動推論チェックを発表しました。Bedrockは、モデルが行った事実陳述が健全で数学的に検証可能かどうかをチェックし、その結論に到達した方法を正確に示します。しかし、より多くの人々がユースケース向けに最新のマルチモーダルモデルを活用する中で、非構造化データに含まれる潜在的に有害なコンテンツも考慮する必要があります。そのため、本日、Bedrock Guardrailsにマルチモーダル有害性検出が追加されたことを発表できることを嬉しく思います。
[拍手]
この機能は、Bedrockの設定可能な安全対策を画像データに対応させ、セキュアでマルチモーダルな生成AIアプリケーションを構築できるように拡張します。例えば、オンライン広告分類会社は、有害な可能性のある画像とのユーザーのやり取りを防止できるようになります。ヘイト、暴力、不正行為といった内容です。このアップデートは、画像コンテンツをサポートするすべてのモデルや、Fine-tuningされたモデルを含むBedrockに適用されます。
Bedrock Agents
モデル選択から責任あるAIに至るまで、これまで触れてきたツールや課題のすべてが、より多くの人々がFMs(基盤モデル)を活用して問題を解決し、行動を起こす中で、ますます重要になるでしょう。まるでAIエージェントが行うように、エージェントは受動的な言語理解を超え、アクティブな推論とマルチステップの問題解決に進化し、これまで不可能だったレベルの自動化を解放します。
エージェントは特定の目的を達成するために設計され、熟練した専門家のように複雑なタスクを管理可能なステップに分解する能力を持っています。例を見てみましょう。
私の妻は素晴らしい母親であるだけでなく、訓練を受けたパティシエで、料理に関しては非常に厳しい基準を持っています。そのため、最高のレストランを探すのは非常に真剣です。しかし、元大学院生の私は、「すごい料理よりも何がいいと思う?」と常に考えます。「無料ですごい料理?」と。
そして、Re:Inventのような大規模なカンファレンスでは、スポンサーイベントやパーティで最高の料理がどこにあるかを見つけるのは非常に難しいことがあります。マルチエージェントのワークフローが、空腹が不機嫌(ハンガー)に変わる前に無料の料理を見つける方法を見てみましょう。
最初のエージェントは、「イタリアンが食べたい」や「肉やシーフードは食べられない」といった食の好みを取得します。次のエージェントは、カンファレンスのイベントを分析し、どのレストランがパーティを開催しているかを特定します。3番目のエージェントは、レストランやスポンサーの詳細を収集して、どのパーティに参加するかを決定する助けになります。4番目のエージェントは、パーティがいつ始まるのかを知らせ、そこまでの所要時間を推定します。そして最後のエージェントが、カンファレンス情報をもとにイベントへの登録を自動的に行います。
このように、エージェントがユーザーの代わりに行動することは非常に強力です。顧客がこれらのエージェントをスケールして簡単に展開できるように、Bedrock Agentsを提供しています。Bedrock Agentsは複雑なワークフローをオーケストレーションし、自動化するために特別に設計された高度なAIコンポーネントを提供します。
これらはFMsの言語理解能力と推論・実行能力を組み合わせ、高度な目標を段階的なステップと計画に分解するよう設計されています。また、今週からBedrock Agentsはマルチエージェントのコラボレーションをサポートするようになり、専門化されたエージェントを簡単に構築し、調整して複雑なワークフローを実行できます。
顧客は、Bedrock Agentsを使用して、PGAツアーのようにリアルタイムのデータとインサイトを、個々のファンの好みや言語に合わせて調整可能な魅力的なコメントに変換しています。生成AIで構築するために必要なすべての機能が、Bedrockに統合され、開発者の体験を簡素化し、組織がAIの力を完全に解き放つことを可能にします。
Rocket Companiesが生成AIで住宅ローン業界を変革 (1:10:58)
それでは、これらの領域(RAGからエージェントに至るまで)に取り組み、住宅ローンおよび金融サービス業界で変革を推進している顧客をご紹介します。ロケット・カンパニーズのCTO、ショーン・マルホトラさんをステージにお迎えします。
ホームオーナーシップの課題とAIの可能性 (1:10:58)
[音楽]
どうもありがとうございます。
[音楽]
私がRocketに加わったのはほんの7か月前のことです。私の20年のキャリアの中で会社を変えたのはこれが2回目で、それだけの理由がなければこの大きな一歩を踏み出すことはありませんでした。
Rocketには多くの素晴らしい点がありますが、私が最終的に決断したのは、最先端のテクノロジーを活用して「全ての人に家を提供する」という非常に価値のあるミッションを実現する可能性を見たからです。ホームオーナーシップ(持ち家)はアメリカンドリームの基盤ですが、その夢を実現する旅路には今も多くの摩擦やストレスが伴っています。
実際、ミレニアル世代やジェネレーションZの住宅購入者の60%が、過程でフラストレーションの涙を流しています。それは夢というより悪夢のように思えます。そして、大量の書類作業、手作業のプロセス、深いパーソナライゼーションの欠如を掘り下げていくと、これらの問題の多くが適切なデータと最新のツール、例えば生成AIを使用すれば解決可能であることに気づきます。
Rocketは長年にわたり、私たちの業界の先駆者であり続けています。インターネットで住宅ローンを提供したのも、モバイルで住宅ローンを提供したのも私たちが初めてです。そして今、AIによってこれを全く新しいレベルに引き上げています。
この業界は変革を求めています。私たちの10ペタバイトのデータ、ホームオーナーシップの旅全体を通じたクライアントの360度ビュー、素晴らしい才能、そしてAWSと手を携えることで、この変革が始まりました。しかし、これはまだ始まりに過ぎません。まだ氷山の一角に過ぎません。
AIは世界にとってもRocketにとっても新しいものではありません。私たちは2012年、10年前に最初のAIモデルを出荷しました。現在、210以上の独自モデルが稼働していますが、私たちはAIの新時代に突入しています。これはただの流行ではありません。
私はCTOとして、新しい流行や非現実的な期待には懐疑的なことが多いのですが、これは違います。これは、私の子供たちが私や妻と共感できなくなるような技術であり、その到来は非常に早いのです。
Rocketでは、この瞬間に応え、クライアントのために最善を尽くすには、AWSのような世界最高のパートナーと提携しなければならないと認識しています。AWSのエグゼクティブブリーフィングセンターや生成AIイノベーションセンターのチームは、私たちの同盟者として、この変革を導く重要な役割を果たしてくれています。
彼らは、私たちの業界やクライアントに合わせたスケーラブルで知的なソリューションの設計と構築を支援してくれました。新しい概念であるAIエージェントのオーケストレーションや作成といったフレームワークを活用する方法を共に定義する機会を提供してくれました。
多くの方と同様に、私たちはAWSの「逆算」アプローチや経験に基づく加速手法が大好きです。これらの方法論により、私たちはフィンテック業界の最も厄介な問題をより速く、より効果的に革新することができます。
生成AIによる革新的な顧客体験とビジネスの成功 (1:14:18)
先ほど、生成AIはただの流行ではないとお話しましたので、ここで実際の成果についてお話しします。それが今日、私たちのビジネスとクライアントにもたらしている成果です。その中心にあるのは、私たちが特許を取得したAI駆動プラットフォームです。このプラットフォームを基盤に、数多くのAI体験を構築することができました。
このプラットフォームはAmazon BedrockとAWSによって支えられています。この緊密なコラボレーションが私たちの成功の鍵でした。このプラットフォームを活用した一例が、AI駆動のエージェント機能です。このエージェントは、クライアントがホームオーナーシップの旅を進むのをガイドします。
現在、このパーソナライズされたエージェントとチャットすることができますが、今は試さないでください。キーノートが終わったら試してみてください。でも、もし試した場合、80%のクライアントが電話よりもこれを好み、ローンを成立させる可能性が3倍になるでしょう。
これらは大きな数字で、エージェントAIのような言葉を本当の価値に変える方法を示しています。この例では、初めて家を購入する人がその旅路を進むのをどのように支援しているかがわかります。彼女のやり取りの70%を自律的に処理し、節約した時間を私たちのチームが彼女に集中するために使い、彼女の個別の質問に答え、必要なことをよりよく理解し、AIとAmazon Bedrockの大きな支援を受けながら真に人間中心の体験を提供します。
Bedrockによって強化されたAIプラットフォームを活用することで、書類処理、メモ作成、膨大な住宅ローンの書類を調べて質問に答えることなど、タスクの自動化を実現しています。
それでは、これが私たちのビジネスとクライアントにとって何を意味するか、いくつかの例を挙げます。まず、初回コール解決率が10%向上しました。また、ビジネスの一部では、クライアントが回答を得るまでの時間を68%短縮しました。
これは本当の価値です。実際の人々が支援され、住宅所有者が涙を流す機会が少しでも減っていることを願っています。
生成AIにはもう一つ大きな影響があります。それはイノベーションの民主化です。私たちは「Navigator」と呼ばれる内部のノーコードツールを構築しました。このツールは、技術者以外の社員でも、世界最高のLLM(大規模言語モデル)を幅広く活用できるようにします。
これにより、RAG(Retrieval Augmented Generation)のようなAIパターンを理解する必要がなくても利用できるようになります。データベースクエリを自動生成し、ビジネスパートナーが技術チームを関与させることなく、データから深く複雑な洞察を得ることができるようになりました。これにより、社内全体の想像力が解き放たれました。
そして、7月のローンチ以来、私たちのイノベーションのスピードが加速しています。数か月の開発で、2400人の社員がこのツールを使用し、LLMとのやり取りを68,000回行いました。また、ユーザーは133のカスタムアプリを開発しました。そして予想通り、これらはすべてBedrockによって可能になったのです。
数か月で構築したものが、Bedrockなしでははるかに長い時間がかかったでしょう。全体として、BedrockによるAIは私たちに多くのビジネス価値をもたらしています。効率を向上させ、クライアント体験を強化し、AIを数週間や数か月で複数の製品や体験に迅速に拡張することができました。
それにより、年間80万時間もの社員時間を節約できました。これにより、社員はクライアントの夢を深く理解し、それを実現することに集中できるようになりました。
AWSチームに感謝を申し上げます。彼らは常に私たちと共に歩んでくれました。両組織とも、イノベーションと起業家精神がDNAに刻まれており、それが協力を非常に容易にしています。
Rocketには、基本的な価値観と原則のセットがあります。それを「ISMs」と呼んでいます。その中のいくつかが、AWSと共にこの旅路を進む私たちのアプローチをよく表しています。「より良い方法を見つけることに夢中になる」、「イノベーションは報われる」、「実行は崇拝される」。
私たちはAIでホームオーナーシップの旅を変革する方法を見つけ出し、それを実現するための実際の成果を提供することに妥協なく取り組んできました。ここまで多くの進展を遂げましたが、まだ始まったばかりです。
AWSと共に、リアルタイムでコンテキストに基づいたパーソナライズをクライアント向けAIアシスタントに導入するなど、大きなプロジェクトに取り組んでいます。この技術ができることの限界を押し広げ続ける中で、それは素晴らしいものになるでしょう。
私たちは、住宅購入をオンラインで本を買うように簡単にするまで止まりません。そしてその時、私たちのミッションである「全ての人に家を提供する」を本当に達成したといえるでしょう。
ありがとうございました。
[音楽]
[拍手]
Amazon Q (1:19:17)
Amazon Q Developer (1:19:17)
ありがとう、Chan。Rocket Companyがこれらの技術をどのようにビジネスに活用しているかを見るのが本当に楽しいです。特に、エージェントの未来に目を向ける中で、それがどのように役立つかを考えるのが魅力的です。
これらのエージェントシステムは、仕事をより迅速に終わらせるために重要な役割を果たします。そのため、私たちはAmazon Qのようなツールを提供しています。Qは、生成AI(GenAI)を活用して、開発者、データアナリスト、ビジネスユーザーといったあらゆる職種で生産性を向上させるための迅速なスタートを可能にします。
このツールは、Bedrockが基盤となっており、強力な基盤モデルとエージェント機能を備えています。これにより、明確な目的と方向性を持って複雑な問題に取り組むことができます。例として、Amazon Q Developerを挙げます。これはAWSのエキスパートであり、ソフトウェア開発における最も有能な生成AIアシスタントです。
昨日、MattがQがコード生成やエンドツーエンドの機能開発、テスト作成やドキュメント作成から、レガシーアプリケーションの変革促進、開発タスクの効率化、運用上のインシデントデバッグまで、開発ライフサイクル全体でどのように役立つかを説明しました。
今日までに、Q Developerで驚くべき進展を遂げました。実際、Qのソフトウェア開発用エージェントは、SWF Benchの検証済みリーダーボードで最高のパフォーマンスを達成しています。現在、Qはこの非常に人気のあるベンチマークで、ソフトウェア開発の問題の54.8%を解決できるようになっています。
このベンチマークは、アドホックなコーディング問題の解決における標準的な指標とされています。これは、リーダーボードで初めてトップに立った7か月前の解決率の2倍以上です。この進化の速さにはQチームも驚いていますし、顧客も感嘆しています。
実際、DFLブンデスリーガ、ユナイテッド航空、BTグループのような顧客が、コード生成、プラットフォーム統合、JavaアップグレードにQを活用しています。当初、Qをリリースした際の主な目的は、従来のソフトウェア開発ライフサイクル全体の生産性向上でした。
しかし、その機能をさらに探求していく中で、日常の開発タスクを超えてQの潜在能力が広がっていることに気づきました。また、Qが機械学習(ML)モデルの構築を迅速化する可能性が非常に大きいことにも気づきました。
モデルの構築には高度なMLの専門知識が必要であり、特徴選択や特徴エンジニアリング、アルゴリズムの選択とトレーニング、ハイパーパラメータチューニング、モデル評価といった時間のかかる作業が伴います。Amazon SageMaker Canvasのようなツールを使うことでMLワークフロー全体に取り組み、MLモデルを構築することを容易にしましたが、生成AIの力を使えばさらに多くのことができるとわかりました。特に、MLモデル開発の経験がほとんどない顧客にとって大きな助けとなります。
Amazon Q DeveloperがSageMaker Canvasで利用可能に (01:22:33)
そのため、今日、QがSageMaker Canvasで利用可能になったことを発表できることを非常に嬉しく思います。
[拍手]
この機能により、Pythonを一行も書いたことがなくても、自然言語でビジネス上の課題を述べるだけで、QがMLモデル構築のプロセスを案内してくれます。
例えば、製造業界で働いていて、製品が生産品質テストに合格するか不合格になるかを予測するモデルを作りたいとします。SageMakerのカタログ内のテストデータセットを使用して、Qがタスクを一連のステップに分解するガイドを提供します。
次に、データの準備、MLの課題の定義、モデルの構築、評価、デプロイを支援してくれます。この機能が皆さんのMLモデル開発にどのように役立つのか非常に楽しみです。
しかし、Qは単なる開発者タスクやMLワークフローのアシスタント以上のものとして設計されています。Qはビジネスユーザーに向けた2つの生成AI駆動のアシスタントを提供し、業務の迅速化を支援します。
1つ目はAmazon Q Businessです。これは従業員が企業システム内に保存されているデータや情報に簡単にアクセスできるよう支援します。Q Businessは、質問への回答、要約の提供、コンテンツ生成を通じて従業員の効率を向上させることで、組織に迅速な価値を提供します。
例えば、NFLはQを使用してプロデューサー、エディター、クリエイター向けの生成AIアシスタントを作成し、コンテンツ制作を加速させました。このソリューションにより、新規採用者のトレーニング時間が67%削減され、従業員は質問への回答を24時間ではなく数秒で得られるようになりました。
生産性向上を考えてみてください。Q Businessに加えて、私たちはQとQuickSightを使ってビジネスユーザーがデータ駆動型の意思決定を加速させることを支援しています。QとQuickSightは生成AIの力で、より多くのユーザーにインサイトを提供します。
Qはダッシュボードの要約を自然言語で提供し、データに関する質問を行うと、マルチビジュアルのチャートやグラフで回答を得られるため、意思決定がスピーディになります。
顧客はQとQuickSightを活用して、多様な業界やユースケースでビジネスインサイトを解放しています。その中にはF1レーストラックも含まれます。F1エンジン組み立て中に、Scuderia HPは膨大なデータへのアクセスを民主化し、エンジニアがより良いインサイトを得られるようにしました。
Qのダッシュボード作成機能を使えば、エンジニアが自然言語でダッシュボードを作成し、製造プロセス中に異常を検出できます。ビジネスインテリジェンスと生成AIの融合により、Amazon Qは顧客に新しい可能性を解き放ち続けます。
Amazon Q in QuickSight Scenarios (1:25:45)
しかし、これらのモデルがますます強力になるにつれて、データ駆動型の意思決定をさらに加速させるために多くのことができると考えました。今日、多くのビジネスユーザーは、データに対するシンプルなQ&Aでは直接答えられない質問に直面しています。
私自身、過去にDynamoDBをローンチした際、この問題に直面しました。例えば、最適な無料プランの期間を決定する際に、大きな質問が多くの小さな質問に分解されました。それぞれの質問にはデータの収集が必要であり、場合によっては仮説的なシナリオを作成して問題を解決する必要がありました。
例えば、ユーザーごとのコストを計算するには、インフラコストと使用シナリオを組み合わせて、各オプションの詳細な分析が必要でした。DynamoDBのローンチは今や歴史の一部ですが、この問題は今でも多くのビジネスユーザーが直面しており、スプレッドシートを使った煩雑な分析に何時間も費やしています。
このようなシナリオ分析を顧客がより簡単に行えるようにするため、今日、QとQuickSightの「シナリオ」のプレビューを発表できることを嬉しく思います。
[拍手]
これは非常に興奮させられる機能で、ビジネスユーザーが自然言語を使って複雑なビジネス課題の解決を依頼することができます。Qは関連するデータを見つけ、分析を提案し、各ステップを計画してタスクを実行し、各ステップで詳細なインサイトと提案を提供します。
この機能を使用することで、ビジネスユーザーは従来のスプレッドシート形式の分析ツールに比べて、最大10倍速く分析を行うことができます。では、その仕組みを見てみましょう。
例えば、「最適な無料トライアル期間は何日ですか?」というシナリオを説明できます。Qはすべてのダッシュボードから関連するデータを検索し、分析の準備を行います。問題を自動的に小さな質問に分解します。私たちはその質問の中から分析したいものを選び、分析が始まる間にさらに追加の質問を加えることができます。
例えば、「すべてのトライアルが30日間の場合、収益にどのような影響を与えるか?」と仮説的なシナリオを追加して探索することができます。分析を簡単に修正することも可能です。例えば、Qに対して「0日間のトライアルとして表示される直接購入を除外するように」と依頼し、更新された回答を得ることができます。
各回答により、意思決定に必要なデータやインサイトを簡単に取得できます。例えば、トライアル期間ごとのコンバージョン率の変動や、トライアル期間が長くなると収益が逓減するポイントなどの洞察です。
さらに作業を進める中で、Qは各ステップを考慮に入れ、どのように回答に至ったかを確認したり、必要に応じて変更を加えることができます。QとQuickSightのシナリオ機能は、ビジネス分析を劇的に加速させます。
しかし、ツール、データ、AIの融合は、Amazon Qを使用している顧客にインサイトを提供するだけでなく、データレイクでの高速SQL分析やビッグデータ処理、SageMaker AIでのモデルトレーニングの加速、Amazon Bedrockの新しい生成AI体験の強化など、次世代のAmazon SageMakerを通じて、分析と機械学習のワークフロー全体を効率化します。
これらすべてのイノベーションをAmazon SageMakerで活用する方法をお見せするために、Shannon Kaliskyをステージにお迎えください。
SageMakerの統合プラットフォームとデータ活用の実例 (1:29:36)
[音楽]
[音楽]
ありがとうございます、Swami。
1,330,432GB。これは現在この部屋に存在するデータ量の概算です。そして、それは携帯電話だけを考慮した場合です。私たちはデータに囲まれています。ほぼすべてのタスクにおいて、データ、AI、分析の融合が進行しているのが見て取れます。
しかし、それに伴う複雑さもあります。適切なデータセットを探したり、タスクを完了するために複数のコンソールを切り替えたり、コラボレーションの課題に直面することがあります。しかし、この混乱に秩序をもたらし、適切なデータを簡単に見つけ、必要なすべてのツールを1つのインターフェースで利用し、他者とシームレスに協力できるとしたらどうでしょうか。次世代のAmazon SageMakerを使えば、それが可能です。
詳細を見てみましょう。私たちがロボティクススタートアップのデータ作業者であり、売上を増加させるという課題に取り組んでいると仮定します。これはまさに「データの混乱」が大好きな、曖昧で大きな問題の一例です。でも大丈夫です。
さあ始めましょう。売上を増加させたいなら、まずリードを増やす必要があります。エンドツーエンドで見ていきましょう。ステップ1はリードを増やすことです。これは明らかですね。ステップ2は分析です。非常に論理的で素晴らしいですね。そしてステップ3では、そのリードを優先順位付けする必要があります。どのリードに取り組むべきかを知る必要があります。それでは新しいSageMaker Unified Studioがどのように役立つかを見てみましょう。
まずステップ1から始めます。この部屋やライブストリームが伝える印象とは裏腹に、私たちは実際には非常に小さなチームです。そのため、ウェブサイト上で顧客と対話し、自動的に営業リードを生成するチャットエージェントを作成します。最初に、生成AIプレイグラウンドを起動します。ここでモデルを並べて比較し、顧客が気に入るであろうプロンプトを入力します。例えば「パッケージングロボットについてもっと知りたい」というように。このプロセスにより、ニーズに最も適したモデルを選ぶことができます。
適したモデルが見つかったら、Bedrock IDEでAIアシスタントの構築を開始します。ガードレールを作成したり、ナレッジベースを追加したり、リードを生成する機能を作成したりできます。機能に名前を付けて説明し、CRMとの統合を実現するスキーマを作成します。ここではCRMとの統合が完了しているのがわかります。その後、完成した機能をエクスポートし、ウェブサイトに埋め込むことで、顧客の支援や営業リードの生成を始められます。
未来に飛んでみましょう。どうやってそこにたどり着くと思いますか?さて、AIアシスタントは現在、毎日数百件のリードを生成しており、そのデータを分析する必要があります。新しいZero-ETLアプリケーション統合を使用して、CRMからSageMakerにデータを戻し、データアナリストが作業できるようにします。これがステップ2、分析に繋がります。
リードを優先順位付けしやすくするためにグループ化する方法が必要です。これを行うために、データアナリストはリードを他のデータセットと組み合わせ、顧客セグメントを作成します。ただし、その前に適切なデータを見つける必要があります。SageMakerでは2つの方法があります。データカタログを使用して検索するか、Qを使って「AIアシスタントが生成したリードを含むデータセットはどこにありますか?」と質問します。Qは必要なデータを見つけ、結果を生成します。情報をプレビューし、それを使いたい場合はサブスクライブするだけです。そして分析を始めるためにクエリエディタを起動します。
ここで、データにアクセスできます。RedshiftやAthenaを使ってデータをクエリするか選択し、セグメントを構築します。市場データ、テクノグラフィックデータ、コンバージョン率を探し、パターンを見つけます。これらをすべて1つのデータセットに結合し、セグメント定義を保存します。その後、すべてをデータレイクハウスに書き戻します。これにより、他のコラボレーターが利用できるようになります。
最後のステップ3です。どのリードに取り組むべきかを特定する必要があります。これを行うために、データサイエンティストがリードをスコアリングし、優先順位を付けるための機械学習モデルを作成します。以前はこれを行うのに複数のノートブックが必要でした。
まずEMRでデータを準備・前処理し、その後SageMakerに移動してモデルを構築しトレーニングしました。しかし、今では1つのノートブックですべてを実行できます。必要なコードに対してコンピュートリソースを適用するだけです。モデルを構築する際に、異なる手法を試し、どれが最適かを確認します。例えば、ランダムフォレストを使ってリードをスコアリングするモデルのコードを生成するためにQを使用します。コードが生成されると、それをノートブックに簡単に追加し、SageMaker内でモデルをトレーニングし、デプロイします。これにより、新しいリードが来るたびにスコアリングが可能になります。
ただし、この結果が本当に有用であるためには、営業が結果を活用する方法が必要です。結果をデータレイクハウスに書き戻し、他のAWSサービスがデータにアクセスし、ビジネスダッシュボードで視覚化できるようにします。こうして営業が毎日ログインすると、優先すべきリードが表示され、取引をより多く成立させるのに役立ち、売上の増加に繋がります。
次世代のSageMakerを使えば、必要なすべてが1か所に揃い、複雑なエンドツーエンドの問題を協力して解決できます。分散したデータシステムの煩雑さを伴わずに。次世代のSageMakerは本日プレビュー版が利用可能です。皆さんがそれをどのように活用するのか楽しみです。ありがとうございました。
教育格差へのAIの応用とAWSの取り組み (1:37:43)
AI Ready Initiative (1:37:43)
[音楽]
シャノン、素晴らしいデモをありがとうございました。バックステージでジャンプを練習していたんですが、後でお見せできるかもしれません。この新しい統合プラットフォームを活用できることを楽しみにしています。ご覧の通り、技術は非常に強力です。しかし、技術だけでは十分ではありません。適切なタイミングと環境で応用することこそが、本当に違いを生み出します。
これはマルコム・グラッドウェルの著書『ティッピングポイント』で紹介されている興味深い概念を思い起こさせます。グラッドウェルは、アイデアやイノベーションが成功するかどうかは、環境や状況といった周囲の条件が重要であると述べています。潜在能力を持っているだけではなく、それを育て、拡大するための環境が必要です。
自身のキャリアでこの文脈について考えてみてください。あなたにとっての「ティッピングポイント」は何でしたか?成長と成功に最適な文脈が整っていた瞬間は?例えば、自分を信じ、挑戦的なプロジェクトを任せてくれる上司がいた時かもしれません。あるいは、リスクを取ることやイノベーションを奨励する文化を持つ会社に入った時かもしれません。私がAmazonで経験したのはまさにそうでした。
この概念は特に教育について考えるときに深く共感します。私たちがキャリアで成功するために適切な文脈を必要としたように、生徒たちも生成AIの時代に成功するためには適切な環境が必要です。しかし、グローバルな視点では、質の高いデジタル学習機会へのアクセスは依然として課題です。UNESCOによると、世界中で5億人の生徒がデジタル学習にアクセスできず、特に貧困地域や農村地域の生徒が多いとされています。
そのため、AWSは教育を進歩させ、さまざまな背景を持つ学習者を支援することに長年取り組んできました。2023年に発表したAI Ready Initiativeでは、無料のAIスキルを提供し、世界中で200万人以上の学習者を育成するという目標を既に達成しています。また、AIおよびML奨学金プログラムでは、2,800万ドルの奨学金を提供し、恵まれない層の人々が最先端のAI技術を学ぶのを支援しました。
Amazon Future Engineerプログラムでは、4,600万ドルの奨学金を提供し、代表性が不足しているコミュニティ出身の未来の技術者を育成しています。そして、2025年の目標を1年早く達成し、世界中で2,900万人に無料のクラウドコンピューティングスキルトレーニングを提供しました。これは大きな成果です。
[拍手]
しかし、これらは単なる数字ではありません。各統計の背後には、変革と影響の物語があります。AWSのAIおよびML奨学金受賞者であるPrerana Sapkotaさんは、ネパールの水不足問題を解決するためにAIを活用しています。また、Gideon Beyondさんは、電気自動車バッテリーのセカンドライフ用途を特定するAIソリューションを開発し、世界中でより持続可能な技術利用を推進しています。実際、Gideonさんは今日、この場に来ています。彼の素晴らしい仕事を認めたいと思います。
[拍手]
AWS Education Equity Initiative (01:42:20)
私たちはAI教育で多くを成し遂げてきましたが、まだやるべきことが多くあります。今日のAI教育格差の規模は、革新的な解決策を必要としています。AIソリューションを活用することは、アクセスを拡大するために重要です。多くの教育技術分野の組織は、実現可能な学習ビジョンを持っていますが、資金の不足によってそれを実行に移すことができていません。これらの献身的な組織が世界中のさらに多くの学習者に届く手助けができると確信しています。そのため、本日、AWS Education Equity Initiativeを発表できることを非常に嬉しく思います。
[拍手]
このイニシアチブは、恵まれない学習者のためにデジタル学習ソリューションを構築・拡大する力を組織に提供します。私たちは、最大1億ドル相当のクラウドコンピューティングクレジットを提供し、今後5年間にわたってAWSの専門家による技術指導を行い、このビジョンを実現します。このイニシアチブは、財政的な障壁を軽減し、教育ソリューションを構築・拡大するための適切な技術指導を提供します。これには、アーキテクチャ設計のガイダンス、AIおよび責任あるAIの実装におけるベストプラクティス、継続的な最適化サポートなどが含まれます。
このイニシアチブにより、Code.orgとの長年のパートナーシップをさらに拡大できることを楽しみにしています。過去10年間、AWSはCode.orgを支援し、100か国以上で数百万人の学生に無料のコンピュータサイエンスカリキュラムを提供してきました。このイニシアチブにより、Code.orgはAmazon Bedrockを使用して学生プロジェクトの評価を自動化し、教師の時間を数百時間節約し、個別指導や個別化された学習体験に時間を充てられるようになりました。
また、このイニシアチブはインドで幼児教育に取り組むRocket Learningを支援し、Amazon QとQuickSightを活用して300万人以上の子どもの学習成果を向上させています。ここでは、MQが多様な地域や言語にまたがるコンテンツの最適化を支援しています。生成AIを活用することで、すでに世界規模で素晴らしい活動をしている組織の影響力をさらに拡大できます。
しかし、米国でも生徒が見落とされることがあります。もう1つの事例を見てみましょう。これは、教育者が生徒の成果を向上させる力を得るのを支援する企業です。教師はカウンセラーであり、支援者であり、生徒にとってすべてです。しかし、授業の合間にわずか10分でデータに基づいて指導を調整するのは非常に大変な作業です。データには出席状況、行動記録、保健室訪問、評価、成績が含まれますが、これらを処理するのは圧倒的な負担です。
AWSクラウドはこれらをデジタル化し、1つの中央リポジトリに統合する上で非常に重要な役割を果たしました。SchoolToolは、ニューヨーク州の400以上の学区で使用されている学生管理システムです。AWSを活用して、生成AIを利用して洞察を得る旅を進めています。生成AIは本当に大きな変化をもたらします。
[音楽]
QとQuickSightの登場以前は、教育者はシステムからデータを取り出すためにデータエンジニアと数週間作業する必要がありました。今では、QとQuickSightの力を借りて、英語で簡単な質問をするだけで即座に回答を得ることができます。例えば「昨年と今年で生徒の成績はどう違うのか」と尋ねると、データが視覚化されてすぐに答えが得られます。教育者自身がダッシュボードを作成することも可能で、いわば自分専用の指揮センターを構築できます。
[音楽]
これにより、学区全体の個々の職員が必要な回答を必要な時に得られるようになります。
[音楽]
生成AIとAmazon Qの力により、教師はデータに対してより親しみを持つことができ、データ分析が完全に民主化されます。教育者という職業は最も挑戦的でありながらやりがいのある仕事の1つです。データを手元に置くことで、生徒の成功に貢献できるのです。
[音楽]
今日紹介したすべての技術が、学生、顧客、さらには世界をどのように変革しているかを見るのは感動的です。これらの技術は、生産性を革命的に向上させる生成AIアシスタントから、大規模な基盤モデルのトレーニングツールに至るまで多岐にわたります。私たちはこの歴史的な瞬間に積極的に関与しており、これまでの夢を持った先駆者たちの上に立って、次世代の技術革新を担うパイオニアの道を切り開いています。これにより、現在を形作るだけでなく、新しいイノベーションが羽ばたくための基盤も整えています。
これらの変革を推進するために努力してくれたパートナーや優れたチームに心から感謝します。次に皆さんがどんなことをするのか、とても楽しみにしています。ありがとうございました。