はじめに
ことしも、AWS re:Inventに参加してまいりました。
主にKeynoteから、今年のAWSのテーマを振り返ります。
re:Inventとは
今年で13回目、参加者6万人、ラスベガスで開催されるラーニングカンファレンス
毎年数多くのアップデートが発表されるイベントです。
ちなみに6万人は、ディズニーランドの1日入場制限人数くらい(激混みディズニーを想像するとわかりやすい)
実際会場は、ディズニーリゾートよりでかいし、移動しまくるので、毎日ディズニーリゾートを歩いている感じを想像してほしいです笑
主要なKeynote
主要なKeynoteは以下となり、テーマごとにCEOやVPが新サービスや、これまでのAWSの取り組みなどを紹介しています。
-
Monday Night Live主にハードウェア系の話
-
CEO Keynote主要なアップデート関連
-
Dr. Swami Keynoteデータ分析、機会学習系
-
Dr. Werner Keynote開発者としての心構え的な話
今年のテーマ
- 機械学習の進歩に追従したハードウェアの進化
- 学習から推論へ
- 開発者の本業への集中
- 万能なモデルは存在しない
Monday Night Live Perter DeSantis の概要
以下のようなアップデートや取り組みが発表されました。
-
Gravitonによる性能の最適化
-
NitroシステムとGravitonの組み合わせによるパフォーマンス、セキュリティ強化
-
コンピュートとストレージ部分の分離の実現による制約突破
-
AIモデルのトレーニング、推論による処理の特徴とその処理に最適化させたTranium2チップ
-
Tranium同士を高速に接続する、NuronLinkの発表
-
Tranium2 Ultra ServerTraniumを並列で繋いだサーバ
-
Latency Optimized inference option→Tranium2を活用(本来トレーニング用チップ)することで、推論を高速に(Claude 2.5 Haikuは60%高速に)
-
専用のネットワークケーブルなどを開発、ホコリの影響を究極に減らすことでパフォーマンスを大幅に向上
-
Project Rainier→Anthropicが数千のTranium2 チップを利用したモデル学習中
上記のアップデートから、AIの学習に合わせたハードウェアの進化、例えば、Graviton、Tranium2、ネットワーク、並列処理など極限まで性能を極めていくこと、それも独自のHWやケーブルなど物理的なレイヤまで突き詰めていくというメセージが強く見えました。
また、推論の高速化としてこれまで、学習に使われてきた、Tranium2を推論に利用することで、高速な推論を実現する事が可能になったということが新たに発表されました。
生成AIのモデルを始め機械学習には、多くのコンピューティングリソースと電力、コストを消費します。このコンピューティングリソースの性能、電力効率、コストパフォーマンスを以下に突き詰めてきたか、これからも突き詰めていくのだというメッセージが伝わるKeynoteでした。
CEO Keynote –Matt Germenの概要
- Nvidia P6 Blackwell GPU Instanceこれまでの2.5倍のGPU性能
- Tranium2 EC2 Instance30〜40%コスト効率を向上させたGPUベースインスタンス
- Tranium2 UltraServerNeuronLinkで接続した64個のTranium2Chipを利用したハイパフォーマンスサーバ
- S3 TablesApache Iceberg Tableに特化したテーブルストレージ、検索性能は3倍
- S3 MetadataS3オブジェクトのメタデータを生成Icebergテーブルに保存し、検索性能を上げる
- Aurora DSQLマルチリージョンでAct-Act構成かつ低レイテンシを実現したグローバルデータベース
- DyanamoDB Global Tables高可用性をより簡単に実現可能に
- Bedrock Model Distillationモデル蒸留により特定のユースケースでの小型、コスト効率の良いモデルを利用可能にする
- Bedrock Guardrails Automated Reasoning checkモデルの応答がポリシーに準拠していることを検証
- Bedrock Multi-Agent collaboration複数のAIエージェントをオーケストレーション可能に
- Amazon Nova Reel、Canvas、Speech-to−Speech、Any-to-Any画像生成、映像生成などもサポートするAmazonの生成AIモデルをリリースClaude3.5などと同等レベルのパフォーマンスかつ75%以上安いモデル
- SageMaker NextGen
- SageMaker UnifiedStudioEMR、Glue、Redshift、Bedrock、SageMakerStudioの機能を統合、データとAIのユースケースから最適なツール実行が可能に
- SageMaker Lakehouseサードパーティーを含む複数のデータアクセスを統合し管理可能に
- ZeroETL統合SageMakerLakehouseとRedshiftがSalesforce、SAP、SNOW、ZendeskなどとZeroETL統合
生成AI中心とはいえ、てんこ盛りでした・・・
ここからは以下のようなテーマが読み取れます。
ハードの進化はもちろんですが、Bedrockのアップデート全般を見ていると、よりモデルを高度に使うこと、組み合わせること、コストや要件によってモデルを選択可能にしていくこと、安全に使っていくことがより容易にしていくというメッセージかと思いました。
また、AmazonはAnthrpicに多大な投資をしつつ、自社モデルであるNovaをリリースしたのは非常に驚きだったかと思います。
Novaは画像生成や文章生成などマルチモーダルに利用できるモデルで、非常にコストパフォーマンスに優れたモデルです。ClaudeやGPTなどに匹敵するようなパフォーマンスでありながら非常に安いモデルとなります。要件に合わせて適切なモデルを組み合わせて使うことが今後必要だよね、万能なモデルはないよということがより鮮明になるアップデートだったかと思います。(必ず性能を突き詰めたハイコストなモデルを利用することが正解ではない)
- 機械学習の進歩に合わせたハードウェアの進化
P6インスタンス、Tranium2 - 学習から推論へ
Amazon Q関連全般、Berrock関連全般 - 開発者の本業への集中
Amazon Q、Bedrock - 万能なモデルは存在しない
Amazon Nova
Bedrock Model Distillation
Bedrock Guardrails Automated Reasoning check
また、Matt Germanのメッセージで以下のような言葉が印象に残りました。
私なりの解釈ですが、
開発者が本質的な作業に集中できるようにAWSは発明を続ける
だから開発者はAWSを利用して本質的な課題に取り組むことができる
同時にAWSは進化を続けていくから、利用者側も進化し続ける必要がある
ということなのかなと考えました。
Dr. Swami Keynoteの概要
- SageMaker HyperPod flexible training plans大規模基盤モデルのトレーニング最適化、40%のトレーニング時間短縮
- SageMaker Hyperpod task governanceプロジェクト予算など優先度に基づいて、計算リソースを中央集権的に管理可能
- パートナーアプリをSageMaker上にデプロイ可能にパートナーネットワークではなく隔離されたVPC上にモデルをデプロイ可能に
- Poolside Assistant開発者向けワークフローに特化した生成AI、コード生成、テストなどに特化
- Stable Diffusion3.5
- Luma AIテキストからビデオ生成が可能
- Amazon Bedrock Marketplace複数の企業が提供する基盤モデルにアクセス可能に
- Amazon Bedrock prompt cachingよく利用するプロンプトをキャッシュし、コスト、レイテンシを最大限削減
- Amazon Bedrock Intelligent Prompt Routingプロンプトの複雑さに応じて最適なモデルを自動的に選択、コスト削減、パフォーマンス最適化を実現
- Amazon Kendra Generative AI Index非構造化データに生成AI機能を統合、Bedrock KnowledgeBases、Amazon Q Businessと統合可能に
- Amazon Bedrock knowledge Bases supports structured data retrieval自然言語クエリをSQLに変換、Redshift等から情報取得可能に
- Amazon Bedrock knowledge Bases now supports GraphRAG情報間の関連性を強化、テキスト生成を強化するGraphRAGをサポート
- Amazon Bedrock Data Automation非構造化データから価値あるインサイトを自動抽出
- Amazon Bedrock Guardrails Multimodal toxicity detectionテキストだけでなく画像コンテンツに対してフィルタリングが可能に
- Amazon Q Developer in SagaMaker CanvasSagaMakerCanvasにQが統合、自然言語でMLモデルが生成可能に
- Amazon Q in Quickisight ScnenariosQuickSightでのシナリオ分析を自然言語で実現可能に
これまた大量でした。
この発表から見えてくるものとして以下を上げています。
CEOKeynoteと同様、これまで学習に注力していた機械学習が当たり前のものとして利用されていく環境をAWSは提供していくこと、複数のモデルを組み合わせることなど、Bedrockを通じて、より顧客の要望に合わせた推論が提供できるようにしていく、そういったメッセージが垣間見えました。
- 学習から推論へ
Amazon Q関連全般
Berrock関連全般 - 開発者の本業への集中 だれもがAIを身近に
Amazon Q関連全般
Berrock関連全般 - 万能なモデルは存在しない
Bedrock Marketplace
Amazon Bedrock Intelligent Prompt Routing
Amazon Bedrock Guardrails Multimodal toxicity detection
Dr.Verner Keynote
個人的には一番大好きなKeynoteです。
Simplexityをテーマに大規模な分散システムを構築したAmazonの経験を活用して、複雑さを受け入れるための基本原則の解説があったのですが、こちらを書くにはスペースが足りなすぎるので、別途まとめます・・・
注目のアップデート
-
Aurora DSQL
細かい内容は書きませんが、マルチリージョンでAct-Act構成を取ることができるRDBサービスです -
S3 Tables Metadata
Apache Iceberg形式のテーブル
検索スピード3倍、転送スピードは10倍
これまでは、ファイル形式(Avro、Parquet等)で工夫してきたが、初めてストレージ側を最適化
メタデータによりデータにメタデータを付与、分析、AI分野での活用がしやすくなった
S3をすべての中心にする思想 -
Amazon Nova
Amazon Nova Micro テキスト専用モデルで、非常に低コストで最小の遅延応答を提供。
Amazon Nova Lite 画像、ビデオ、テキストを扱う低コストのマルチモーダルモデル。
Amazon Nova Pro 高精度かつ高速で、さまざまなタスクに最適なマルチモーダルモデル。
Amazon Nova Premier 複雑な推論タスクに対応し、カスタムモデルの教師として使用可能な最も高性能なモデル(2025年第1四半期に利用可能予定)。
Amazon Nova Canvas 最先端の画像生成モデル。
Amazon Nova Reel 画像から動画を生成する最先端のビデオ生成モデル。 -
Amazon Q
NETアプリケーションのLinux化
VMWareワークロードのクラウドネイティブ化
メインフレームモダナイゼーション
AWS環境全体の運用調査やトラブルシュートをサポート
QuickSightでの自然言語シナリオ分析
Q Developerにより、単体テストや性能テストなどのケース生成を自動化、コードレビューも可能に -
Amazon Bedrock
Prompt Cachingにより、コスト効率を強化
Intelligent Prompt Routingにより最適な基盤モデルをプロンプトから推定、選択することが可能
Guardrailsが画像をサポート
Multi Agent Collbolationにより、複数のAIエージェントをオーケストレーション可能
まとめ
今年も想定通り生成AIのアップデートが多かったです。
昨年との大きな違いは、生成AIを実際に利用する視点でのアップデートが目立ったというところです。
これまでは、モデルを作る部分に集中していた投資が、推論を利用したビジネスに移りつつある、そこをサポートしていくという姿勢がより強く見えたアップデートでした。また、AWSでは、Anthropicに大きな投資を行っていますが、並行して独自モデルであるNovaをリリースしています。AWSは、より多様なモデルを利用可能にしていくという思想です。このことから、万能なモデルは存在しないということ、ユーザは最適なモデルをユースケースに合わせて選択していくのだということがより濃く出たアップデートでした。
- 機械学習の進歩に追従したハードウェアの進化
- 学習から推論へ
- 開発者の本業への集中
- 万能なモデルは存在しない