12月に開催されたAWS re:Invent 2024、基調講演のアーカイブからCEO Keynote with Matt Garman - YouTubeの内容を共有します。動画の文字起こしから生成AIの支援を借りながら、段落分けや日本語訳を行ったものです。
なお私的な事情ですが、今週は耳の不調が激しく、実際の動画が視聴できない状態で内容把握のために作成しています。このため、元情報としている音声認識がおかしそうなところを、自分で聞いてみて修正することができていません。修正提案を心から歓迎します。
Matt Garman (AWS) (2:22)
AWS re:Invent 2024 開幕 (2:22)
[音楽]
皆さん、こんにちは。そして、第13回AWS re:Inventへようこそ。ここに皆さんが集まっているのを見られるのは本当に素晴らしいことです。
これは私にとって初めてのCEOとしてのイベントですが、re:Invent自体は初めてではありません。実は、2012年以降、すべてのre:Inventに参加するという特権を得てきました。
このイベントが始まって13年、多くのことが変わりました。しかし、変わらないのはre:Inventを特別なものにしている点です。それは、情熱的で活気に満ちたAWSのコミュニティが一堂に会し、お互いから学び合うことです。
今朝の皆さんの声や会場を歩いている時の雰囲気からも、そのエネルギーを感じます。ぜひ、この1週間を活用して、お互いからたくさん学んでください。
セッションと参加者の紹介 (3:10)
今年、現地参加者は約6万人、さらにオンライン視聴者が40万人に達しています。ご覧いただいている皆さん、本当にありがとうございます。そして現地では、皆さんが参加できるセッションが1900以上、講演者は3500人近くに上ります。その多くが顧客、パートナー、そしてAWSの専門家によるもので、今日ここにいらっしゃる方々もたくさんいます。
本当にありがとうございます。皆さんがコンテンツや専門知識を共有してくださることが、re:Inventを特別なものにしているのです。感謝いたします。
[拍手]
AWS Heroesとコミュニティ (3:49)
さて、re:Inventには、技術者向け、経営者向け、パートナー向け、学生向けなど、誰にとっても魅力的な内容があります。しかし、その核心にあるのは「学びのカンファレンス」であり、特に開発者や専心的なビルダーに向けたものです。
実際、この役職に就いて最初にしたことの一つが、AWS Heroesの皆さんと少し時間を過ごすことでした。【拍手】Heroesの皆さんに感謝を込めて!こちらに座っていらっしゃると思いますが、すでに声が聞こえてきますね。Heroesは、AWS開発者の中でも最も献身的で情熱的な方々の一部です。本当にありがとうございます。
そして、AWS開発者コミュニティ全体の成長ぶりは、本当に素晴らしいものです。現在、世界中に600のユーザーグループがあり、120か国に広がっています。AWSコミュニティ全体は、何百万人もの人々が世界中に存在しています。
このコミュニティの素晴らしい点の一つは、皆さんからのフィードバックが直接製品に反映され、今日ここで発表する内容に影響を与えているということです。
スタートアップとイノベーション (4:52)
ありがとうございます。さて、私がAWSで働き始めたのは2006年のことでした。当時AWSが事業を立ち上げた際、最初の顧客はスタートアップ企業でした。そのため、スタートアップには特別な思い入れがあります。そして、スタートアップが素晴らしいと思う点の一つは、新しい技術を積極的に採用しようとする姿勢です。
彼らはすぐに試してくれ、私たちに貴重なフィードバックを提供してくれます。また、私たちを革新へと駆り立てるだけでなく、私たちの技術の上に新たなイノベーションを重ね、非常に迅速に動いていきます。私たちはスタートアップから本当に多くのことを学んできました。
そして今、生成AIが登場したことで、これほどまでにスタートアップが刺激的な時代はかつてなかったと思います。生成AIはあらゆる業界を変革する可能性を秘めています。そして、変革者といえば、変革はスタートアップから生まれるのです。ですから、スタートアップの皆さんにとって、今こそ業界をどのように変革するかを考える絶好の時期です。
実際、私たちはスタートアップをこれほどまでに支援しています。そして本日、2025年にはAWSが全世界のスタートアップに対して合計10億ドル相当のクレジットを提供することを発表できることに興奮しています。私たちは皆さんの成功に引き続き投資していきます。
[拍手]
エンタープライズのクラウド活用 (5:56)
スタートアップが私たちの最初の顧客だった一方で、実はエンタープライズ(大企業)がクラウドの価値に気付くのにもそれほど時間はかかりませんでした。エンタープライズは、クラウドに莫大な価値があることをすぐに理解しました。そして現在、世界中のあらゆる業界、あらゆる業種、あらゆる規模の大企業や政府がAWSを利用しています。数百万もの顧客があらゆる想像しうるユースケースでAWSを活用しています。
しかし、最初からそうだったわけではありません。ここで初期の頃の話を1つ共有したいと思います。それはAWSがスタートしたばかりの頃のことで、私たちはニューヨークにあるいくつかの銀行を訪問しました。彼らは「クラウドコンピューティング」というものに非常に興味を持っていました。そこで、彼らと腰を据えて話し合い、彼らはとても興味深く聞いてくれました。私たちは、クラウドコンピューティングがどのようにして彼らのITや技術運用を変革できるかというビジョンを説明しました。
金融業界におけるクラウド導入の挑戦 (6:44)
彼らは私たちにこう言いました。「私たちのプロダクションワークロードがクラウドで稼働することはまずないと思います。」そして腰を据えて非常に丁寧に、理由を列挙してくれました。それは、コンプライアンス、監査、規制、安全性、暗号化といったものでした。
これらはすべて、クラウドの技術に魅力を感じてはいるものの、クラウド上で稼働させることが難しい理由でした。その時、「これは見込みがないから次のお客様に行こう」と簡単に考えることもできたでしょう。しかし、それは私たちの選択ではありませんでした。
むしろ、あの時の金融サービスのお客様に感謝したいと思います。彼らとの話し合いを通じて、大規模な規制対象顧客をクラウドでサポートするために何が必要なのかを本当に理解する助けとなったからです。
AWSとして、私たちはすべてのお客様をサポートしたいと考えていました。そのため、次の10年間にわたり、リストに挙げられたすべての項目に対応することに取り組みました。そして、そのリストにあったすべての項目をクリアできたことを誇りに思います。今日では、あの大規模な金融機関の多くが私たちのお客様です。
イノベーションを行う際に覚えておくべき重要なことの1つは、お客様から始めるということです。お客様にとって何が重要なのかを尋ねることです。しかし、お客様が求めるものをそのまま提供するだけではありません。お客様に代わって発明するのです。これを私たちはアマゾン流の「お客様から始めて逆算する」方法と呼んでいます。お客様の話を聞き、彼らが何を望んでいるのかを理解し、そこから素晴らしい製品を作り上げていく。このお客様中心の姿勢と逆算の考え方は、AWSのDNAの一部であり、ビジネスを最初からそうした方法で進めてきたのです。
AWSのビルディングブロック哲学 (8:04)
実際、私たちが作成した最初のAWSビジョンドキュメントは2003年に書かれました。当時、多くのテクノロジー企業が、すべてを包括的に処理するバンドル型のソリューションを構築していました。それらは一通りのことをこなせる巨大でモノリシックなソリューションで、十分な機能を提供していました。しかし、私たちは「十分」という基準だけを目指すべきではないと考えました。
最高のコンポーネントを目指すべきです。もし、さまざまな分野で最高のものを取り出して、それらを組み合わせることができたら素晴らしいだろうと考えました。このアイデアのもと、AWSは誕生しました。そしてもう1つの洞察を得ました。それは、ほとんどすべてのアプリケーションを個々のコンポーネントに分解できるということです。
これらはコアサービスとして分解可能で、私たちはこれらを「ビルディングブロック」と呼びました。このアイデアは、特定の1つの機能において世界で最高のサービスがあり、それがその仕事を非常にうまくこなせるものであれば、それらのサービスを新しいユニークな方法で簡単に組み合わせることができる、というものです。
こうすることで、人々は本当に面白いものを構築でき、テクノロジーを消費する方法や会社を構築する方法において、より良いモデルを持つことができるでしょう。このビルディングブロックの概念は、過去18年間にわたってAWSサービスを構築する際の基本原則となっています。
そして今日、私たちには数百ものAWSサービスがあり、それらを皆さんがユニークでさまざまな、興味深く素晴らしい方法で組み合わせています。
そこで今日は、これらのビルディングブロックを活用して、業界の問題解決方法を再定義しているスタートアップ創業者たちから話を聞くのは面白いだろうと思いました。それでは最初の創業者の話を聞いてみましょう。
Arex Rives (Evolutionary Scale) (動画) (9:46)
[音楽]
タンパク質は、私たちの社会が直面する最も重要な課題を解決する可能性を秘めています。多くの重要な薬は、タンパク質に基づいています。Evolutionary Scaleは、ライフサイエンスのためのAIを開発する企業です。私たちは、科学者がタンパク質を理解し設計するために使用する、ESMファミリーのモデルを開発しました。
[音楽]
会社を設立すると同時に、最初の計算基盤としてAWSを利用し、HyperPodの初期ユーザーとなりました。これにより、ESM3を開発する上で重要な反復的な開発が可能になりました。
ESM3は、タンパク質の配列、構造、機能を推論するモデルです。このモデルは、1兆テラフロップの計算量を費やして20億以上のタンパク質配列でトレーニングされており、タンパク質の生物学について非常に深い理解を持つようになりました。これにより、科学者はモデルにプロンプトを入力して新しいタンパク質を作り出すことができます。
これが意味するのは、マイクロチップや建物のような他のシステムを設計するように、タンパク質を工学的に設計できるということです。ESM3は、生物学をプログラム可能にするための一歩であり、Evolutionary Scaleが開発する最前線のツールと、AWSが提供するセキュリティとオーケストレーションを結びつけるものです。
私たちは、製薬業界でスケールする可能性を持つソリューションを提供できると信じています。そしてこれらのモデルをさらに拡張していくことで、生物学に対するより深い理解が進み、自然界や生命を新しい方法で理解する助けとなるでしょう。
[拍手]
Matt Garman (AWS) (11:41)
AWSセキュリティの基盤 (11:41)
進化的スケールのチームが構築しているものは本当に驚異的で、信じられないほど素晴らしいですね。本当にすごいです。ありがとうございます。
さて、AWSを選ぶ理由はたくさんありますが、スタートアップから企業、政府に至るまで、ほとんどすべての人が非常に重視していることが1つあります。それが「セキュリティ」です。
AWSを始めた当初から、私たちはセキュリティが最優先事項でなければならないことを理解していました。皆さんは私たちを信頼してデータを預け、ビジネスを構築しています。それは私たちが非常に真剣に受け止めた責任です。そのため、私たちにとって、セキュリティはビジネスを構築する基盤である必要がありました。
私たちはまた、セキュリティは文化の一部であることも理解していました。つまり、後付けで追加することはできません。サービスをローンチしてからセキュリティを追加するということは不可能です。最初から取り組む必要があります。そのため、セキュリティは私たちが行うすべてのことにおいて重要です。
データセンターの設計方法、シリコンの設計方法、仮想化スタックの設計方法、サービスアーキテクチャの設計方法、そしておそらく最も重要なのは、すべてのソフトウェア開発プロセスです。セキュリティは、設計段階から実装、展開、パッチ適用に至るまで、最初から中心的な役割を果たさなければなりません。
すべてはセキュリティを最優先に考えることから始まります。そしてAWSでは、セキュリティがあるからこそ、数多くのお客様がクラウドワークロードをAWSに信頼しているのです。それは他のすべてのサービスが基盤として依存する重要なコアレイヤーです。
EC2とNitroの進化 (13:13)
さて、これらの構成要素の1つに関連して、最初に「コンピュート」について話しましょう。現在、AWSは他のプロバイダーを大きく引き離し、最も多くのコンピュートインスタンスを提供しています。そのすべてはEC2から始まりました。
ご存じの方もいるかもしれませんが、私は長年EC2チームを率いていました。今の役職では、特定のサービスを特に気に入っているとは言えない立場ですが、正直に言うと、私はEC2が大好きです。そして良いニュースとして、多くのお客様もEC2を愛用しています。その理由は、EC2がより多くのオプション、インスタンス、機能を提供し、必要なアプリケーションやワークロードに対して最適なパフォーマンスを見つけられるからです。
実際のところ、EC2は現在、126の異なるファミリーにまたがる850種類のインスタンスタイプを提供しています。これにより、常に必要なワークロードに最適なインスタンスタイプを見つけることができます。
たとえば、大規模なデータベースや分析ワークロードを実行する場合、クラウドで最も大容量のストレージインスタンスを提供しています。メモリ要件が大きいアプリケーションをお持ちの場合、最大のフットプリントを持つインスタンスをご利用いただけます。また、レイテンシーが重要なニーズにも対応可能です。
HPC(ハイパフォーマンスコンピューティング)クラスターや大規模なAI・MLクラスターを実行し、それらのノードを迅速に接続する必要がある場合、AWSはこれらのHPCインスタンスやMLインスタンスを結びつけるための最速かつ最もスケーラブルなネットワークを提供しています。さらに、常に最新技術を提供するため、Intel、AMD、NVIDIAの最新技術を搭載したインスタンスも利用できます。そしてAWSは、Macベースのインスタンスを提供した最初で唯一のクラウドでもあります。
多くのお客様からよく受ける質問の1つが、「どうやってそのレベルのイノベーションを持続できるのですか?」というものです。その答えの1つが「Nitro」です。
NitroはAWSの仮想化システムです。具体的には、ネットワーキング、ストレージ、コンピュートの仮想化をすべてカスタムチップでオフロードし、Nitroカードシステムに分離しています。これにより、ベアメタルのパフォーマンスを実現し、お客様に比類のないセキュリティと分離性を提供します。
さらに興味深いのは、Nitroが柔軟性を大幅に向上させる点です。仮想化を完全にNitroシステムにオフロードすることで、新しいインスタンスタイプを開発するたびに仮想化スタックを再構築する必要がなくなります。これにより、新しいサーバーを開発し、仮想化スタックと組み合わせるだけで済むため、イノベーションのスピードが大幅に向上します。
Nitroは、コンピュートにおけるイノベーションの速度を飛躍的に高める鍵の1つとなっています。
Gravitonプロセッサの成功 (16:06)
AWSにおいて、Nitroのもう1つ興味深い点は、カスタムシリコン(半導体)の開発について多くを学べたことです。そして、Nitroの成功を通じて、自社でシリコンを開発することが可能だと確信しました。そこで、他にどのような分野でこのスキルを応用できるかを検討しました。
2018年、私たちはコンピュート分野のトレンドに注目しました。その時点で、ARMコアはモバイル向けを中心に性能が向上し、より強力になりつつありました。そして、私たちは、こうした技術の進化をAWS内でお客様にとって最も重要なニーズと結びつけ、カスタムの汎用プロセッサを開発するチャンスがあると考えました。
当時、これは非常に議論を呼ぶアイデアでした。「自社でシリコンを開発するなんて無謀だ」という声もありました。しかし、私たちはお客様に本当に差別化された価値を提供できると確信していました。そこで取り組みを開始し、Gravitonを発表しました。
現在に至るまで、GravitonはほぼすべてのAWSのお客様に広く利用されています。Gravitonはx86に比べて40%の価格性能向上を提供し、60%のエネルギー削減を実現します。これは素晴らしい成果であり、カーボンフットプリントを削減しながら、より良い価格性能を得ることができます。Gravitonは驚異的な成長を遂げています。
具体的な例を挙げると、2019年のAWS全体の事業規模は350億ドルでしたが、現在では2019年のAWS全体のコンピュート量と同じ量のGravitonがAWSフリートで稼働しています。この成長は非常に印象的です。
数ヶ月前、私たちはGraviton4を発表しました。Graviton4はこれまでで最も強力なGravitonチップであり、この強力なチップにより、Gravitonはさらに幅広いワークロードをサポートできるようになりました。これには、データベースのようなスケールアップが必要なワークロードや、大規模インスタンスが求められるワークロードも含まれます。
Graviton4はコアごとに30%の計算能力を向上させ、Graviton3の3倍のvCPUと3倍のメモリを提供します。その結果、さらに大規模なインスタンスサイズが利用可能になりました。
しかし、Gravitonの利点は単なるインスタンスの種類やサイズの増加にとどまりません。Gravitonはお客様のビジネスに大きな影響を与えています。例えばPinterestの場合、彼らはビジネスを運営するために数千のx86インスタンスを使用していましたが、Gravitonへの移行を決定しました。その結果、Gravitonの価格が低いだけでなく、各インスタンスで実際にパフォーマンスが向上しました。これにより、彼らはコンピュートフットプリントを削減することができました。具体的には、コンピュートコストを47%削減しました。
コンピュート全体のコストを47%削減できるような技術はそう多くありません。これは本当に素晴らしい成果です。また、Pinterestはエネルギー効率にも大変注力しており、カーボン排出量を62%削減しました。
このような成功はPinterestだけではありません。EC2のトップ1000のお客様の90%がすでにGravitonを利用し始めています。このイノベーションを通じて多くのお客様が恩恵を受けているのを見るのは本当に素晴らしいことです。
[拍手]
Generative AIとNVIDIAとの連携 (19:24)
しかし、私はAWSでの経験を通じて感じることがあります。それは「時は止まらない」ということです。そして、私がAWSにいる間に一貫して言えるのは、ワークロードが常に進化し続けているということです。つまり、お客様は新しいワークロードに対応するためのより良いソリューションを、私たちに期待しているのです。
現在、コンピュートの分野で最も大きな課題はAI、特に生成AIに関わるものです。今日では、生成AIのワークロードの大多数がNVIDIAのGPU上で動作していますが、AWSはGPUワークロードを実行するための世界で最も優れた場所です。その理由の一つは、AWSとNVIDIAが14年間にわたって協力し、GPUワークロードの運用において卓越した性能を発揮していることです。
昨年、私たちはNVIDIA Tensor Core GPUを搭載したG6インスタンス、P5インスタンスなどを発表しました。実際、AWSは世界で最もスケーラブルなネットワークを備えており、大規模なワークロードを運用するための卓越した環境を提供しています。そのため、NVIDIAは自社の大規模生成AIクラスターを運用する場所としてAWSを選びました。そして今日、私たちはこのパートナーシップをさらに強化します。
本日、私はNVIDIAの新しいBlackwellチップを搭載したP6インスタンスファミリーの発表を嬉しく思います。
[拍手]
P6インスタンスは、現行世代のGPUよりも最大2倍の高速なコンピュート性能を提供します。これは素晴らしい進歩であり、P6は生成AIの幅広いアプリケーションで非常に人気が出ると期待されています。来年初頭の発表を楽しみにしています。
しかし、AWSでは満足することはありません。Gravitonの成功を目の当たりにした私たちは、さらに何ができるのかを考えました。そして、コンピュートの分野で別のトレンドが浮上していることに気づきました。それは、エクセレレーターインスタンスや機械学習(ML)および深層学習(ディープラーニング)の需要が増加しているということです。
2018年の時点で、この分野が大きな成長を遂げると予想しました。どの程度の規模になるかはわかりませんでしたが、大きな動きになると確信していました。そこで、AIチップの開発を検討し始めました。これらのチップは非常に複雑で困難を伴うことを理解していましたが、Gravitonと同様にお客様に差別化された価値を提供できると考え、挑戦することを決意しました。
2019年には、初めてのInferentiaチップを発表しました。Inferentiaは特に小規模な推論ワークロードにおいてコストを大幅に削減することができ、Alexaがその最初の大きな採用例の一つでした。そして2022年、私たちは初のトレーニングチップ「Trainium One」を発表しました。
Trainium Oneは、Banco、IBM、Ricohのような企業や、Ninja Tech、RC AIのようなスタートアップによって早期に採用されました。この最初のチップがすべてのワークロードに適しているわけではないことを理解していましたが、採用された場合にはワークロードのコストを約50%削減できると考えていました。初期 adopters による成功事例が十分にあり、私たちはこの方向性が正しいと確信しました。
Trainium 2の概要と利点 (23:10)
昨年のre:Inventで、私たちはTrainium Twoを開発中であると発表しました。そして本日、Trainium Twoを搭載したGCN2インスタンスの一般提供開始(GA)を発表できることを嬉しく思います。
[拍手]
Trainium Twoインスタンスは、AWSが完全に独自に設計・開発したプロセッサを搭載し、生成AI向けに最もパワフルなインスタンスです。Trainium Twoは、現行のGPU搭載インスタンスと比較して30〜40%の価格性能比向上を実現します。この性能は、他では得られないものです。
TRN2インスタンスは、16個のTrainium Twoチップを搭載しており、これらは高帯域幅・低レイテンシーのインターコネクト「Neural Link」で接続されています。1つのTrainium Twoインスタンスは、単一のコンピュートノードから20.8ペタフロップスを提供します。本当に驚異的です。
これらのインスタンスは、最先端の生成AIトレーニングおよび推論の要求の厳しいワークロード向けに特化して設計されています。Trainium Twoインスタンスは、トレーニングと推論の両方において非常に優れています。AWSのネーミングは完璧ではないこともありますが、Trainium Twoはお客様に幅広い選択肢を提供し、ワークロードに最適なインスタンスを選ぶためのさらなる可能性を追加しました。EC2は圧倒的に多様な選択肢を提供します。
私たちは、Trainium Twoの開発中にいくつかの早期導入顧客と協力してベータテストを行い、その方向性が正しいかどうかを確認しました。そして、非常に印象的な初期結果が得られました。例えば、AdobeはFirefly推論モデルをTrainium Two上で実行した際、非常に有望なテスト結果を得ており、大幅なコスト削減を期待しています。
スタートアップのPoolsideは次世代のソフトウェア開発プラットフォームを構築しており、大規模なフロンティアモデルのすべてをTrainium Two上でトレーニングする予定です。Poolsideは代替オプションに比べて40%のコスト削減を見込んでいます。
また、Databricksは、世界最大級のデータとAIの企業の一つで、Trainium Twoを活用して、共同顧客により良い結果を提供し、総保有コスト(TCO)を最大30%削減する予定です。さらに、Qualcommは、クラウドでトレーニングを行いエッジで展開できるAIシステムの実現に向け、Trainium Twoの活用に非常に期待しています。
Trainium Twoの初期結果には非常に期待が持て、皆さんが実際にこれを手に取って試していただくことをとても楽しみにしています。しかし、私たちはこれで終わりませんでした。
ご存知のように、現在の一部のモデルは非常に大規模化しており、数百億、時には数兆のパラメータを持つことがあります。こうしたモデルはしばしば単一のサーバーに収まりきらない場合があります。
Ultra ServersとProject Rainierの発表 (25:38)
私は、EC2 Trainium Two Ultra Serversの発表に非常に興奮しています。
[拍手]
この「Ultra Server」は、4つのTrainium Twoインスタンス、つまり合計64個のTrainium Twoチップを、高速で低レイテンシのNeural Linkによる接続で統合します。これにより、単一の「Ultra Node」で83ペタフロップス以上の計算能力を提供します。
この仕組みによって、レイテンシに大きな影響が及びます。これまで複数のノードに分割して処理していた非常に大規模なモデルを、1つのノードに全て読み込むことが可能になります。その結果、レイテンシが大幅に改善され、性能が飛躍的に向上します。
さらに、これによりトレーニングクラスターにも大きな影響を与えます。この非常に大規模なクラスターを使用することで、お客様のためにさらに大規模なトレーニングクラスターを構築することが可能になります。
私たちは現在、Anthropicと協力して次世代のフロンティアモデルを構築する「Project Rainier」を進行中です。このプロジェクトでは、数十万個のTrainium Twoチップを搭載したTrainium Two Ultra Serversクラスターを構築します。
このクラスターは、Anthropicが現在のClaudeモデルのトレーニングに使用したクラスターと比較して、5倍のエクサフロップスを提供します。現世代のモデルで使用された計算能力の5倍です。この規模のクラスターでAnthropicチームがどのような成果を生み出すのか、非常に楽しみです。
[拍手]
世界中で最も革新的な企業が、最先端のAIプロジェクトに向けてTrainium Twoを活用している様子を見るのは、本当に素晴らしいことです。
AWSとAppleのAIパートナーシップ (27:27)
世界で最も大規模で革新的な企業の一つであるApple。
今回は、AppleとAWSがどのように長期的なパートナーシップを築き、お客様向けに独自の機能を構築するためのトレーニングと推論を加速させているのかについてお話しいただきます。
スピーカーは、Appleの機械学習およびAI部門のシニアディレクター、ブノワ・デュパン(Benoit Dupin)です。
ようこそ、ブノワさん!
[音楽]
Benoit Dupin (Apple) (27:57)
AppleとAWSの長期的なパートナーシップ (27:57)
ありがとう、マット。皆さん、おはようございます。
[音楽]
今日はお客様としてこの場に戻ることができ、とても嬉しく思います。私は以前、Amazonで素晴らしい年月を過ごし、製品検索を担当する機会を得ました。10年前にAppleに加わり、現在では、機械学習、AI、検索インフラストラクチャを統括しています。この領域には、モデルトレーニング、基盤モデルの推論、そしてSiriや検索を含むApple全体で使用されるサービスが含まれます。
Appleでは、ユーザー体験を豊かにする推論体験を提供することに注力しています。その鍵となるのが、ハードウェア、ソフトウェア、サービスが一体となり、独自の体験を創り出すことです。こうした体験の多くは、当社が製造するデバイスで動作しますが、iCloud、Music、Apple TV、ニュース、App Store、Siriなど、クラウドで実行されるものも数多くあります。
Appleのビジネスのユニークな点は、私たちが運営する規模の大きさと、革新を続けるスピード感です。AWSはそのペースにしっかりと対応しており、私たちは10年以上にわたりAWSの顧客であり続けています。AWSは、グローバル規模でのダイナミックなニーズを一貫してサポートし、当社の成長を支えています。
機械学習とAIの取り組みが進むにつれて、AWSの利用も比例して拡大してきました。AWSとの強固な関係性を持ち、そのインフラは信頼性が高く、パフォーマンスも優れており、世界中のユーザーにサービスを提供する能力を備えています。また、私たちが頼っているサービスは非常に多く、この小さなスクリーンには収まりきらないほどです。
例えば、検索推論をグローバルにスケールする必要があった際、AWSのサービスを10以上のリージョンで活用して実現しました。最近では、GravitonやInferentiaを活用したAWSソリューションを、近似最近傍探索(Approximate Nearest Neighbor Search)やキー・バリュー・ストリーミングストアのような機械学習サービスに使用し始めています。
さらに、AWSのインスタンスをx86からGravitonに移行することで、40%以上の効率向上を実現しました。加えて、G4インスタンスからInferentia 2に移行することで、検索テキスト機能の一部を2倍の効率で実行できるようになりました。
Apple Intelligenceの導入とAIインフラの進化 (30:23)
今年は、私たちの機械学習とAIにおけるこれまでで最も野心的な年となりました。私たちは「Apple Intelligence」を構築し、ローンチしました。「Apple Intelligence」とは、パーソナルインテリジェンスのことです。
これは、iPhone、iPad、Mac全体に統合された、驚異的な一連の機能で、ユーザーを理解し、作業、コミュニケーション、自己表現をサポートします。
Apple Intelligenceは、当社独自の大規模言語モデルや拡散モデルにより駆動され、デバイス上およびサーバー上で適応します。この機能には、システム全体のライティングツール、通知サマリー、Siriの改善、そして私のお気に入りであるGenmojiなどが含まれます。さらに、これらすべては、各ステップでユーザーのプライバシーを保護しながら動作します。
Apple Intelligenceを開発するためには、革新を支えるトレーニングインフラストラクチャをさらにスケールアップする必要がありました。そのためには、最高のパフォーマンスを発揮するアクセラレーターを大量に利用できる環境が必要でした。
そして今回も、私たちがスケールするにあたり、AWSは一緒に歩んでくれました。
AWSサービスの活用と効率向上 (31:45)
私たちは、AIおよびMLのライフサイクルのほぼすべての段階でAWSのサービスを活用しています。主な利用分野としては、モデルの微調整、トレーニング後の最適化(モデルをデバイスに適合させるための蒸留プロセス)、そしてApple Intelligenceアダプターの構築および仕上げが含まれます。これらはAppleのデバイスやサーバー上で展開する準備が整っています。Apple Intelligenceの機能や特徴を拡大していく中で、私たちは引き続きAWSが提供するスケーラブルで効率的かつ高性能なアクセラレーターテクノロジーに依存していく予定です。
未来に向けたAIのスケーリング (32:32)
マットが述べたように、Trainium TwoはちょうどGA(一般提供)になったばかりです。私たちは現在、Trainium Twoの評価を始めたばかりですが、初期の数値から、事前トレーニングにおいて最大50%の効率向上を期待しています。AWSとの緊密な連携と最新技術の活用により、クラウドでの効率性を高めることができました。AWSの専門知識、ガイダンス、サービスは、私たちのスケールや成長を支える上で非常に重要であり、何よりも、ユーザーに驚異的な体験を提供することにおいて大きく貢献してくれました。ありがとうございました。
[拍手][音楽]
Matt Garman (AWS) (33:37)
Trainium 3の発表と次世代AIへの取り組み (33:37)
さて、ありがとう、ブノワ。長年のパートナーシップに心から感謝します。あなたが提供している、私たち全員が活用できる非常に役立つ機能の数々に興奮しています。そして、Trainium Twoを使用してどんな成果が生まれるのか、楽しみにしています。
さて、今日、Trainium TwoのGA(一般提供)を発表できたことに非常に興奮していますが、実際には、生成AIの分野は驚異的なスピードで進化しています。そのため、私たちも立ち止まるわけにはいきません。Trainiumの長期的なビジョンを実現することに全力を注いでいます。生成AIの進化するニーズや、皆さんが私たちやインスタンスに期待しているものに応えるため、スピードを緩めるわけにはいかないのです。
だからこそ、今日は次なる飛躍について発表することに興奮しています。本日、Trainium Threeを発表します。これは来年後半に登場予定です。
[拍手]
Trainium Threeは、AWSが初めて3ナノメートルプロセスで作るチップとなり、Trainium Twoの2倍のコンピュート能力を提供します。さらに、40%の効率向上も実現し、これは素晴らしいことです。これにより、皆さんはさらに大きく、速く、エキサイティングな生成AIアプリケーションを構築できるようになります。
より多くのインスタンス、より多くの機能、より多くのコンピュート性能。これらすべてが、NitroやGraviton、Trainiumといったシリコンの革新や、高性能ネットワーキングを含むAWSの技術によって実現されています。これにより、ネットワークが障害になることなく、真のパフォーマンスを引き出せるのです。これが理由で、毎日平均して1億3千万の新しいEC2インスタンスが起動されているのです。本当に驚異的です。
毎日、クラウドにおけるコンピュートの意味を再定義し続けています。しかしもちろん、皆さんのアプリケーションはコンピュートだけで終わるわけではありません。それでは、次のビルディングブロックに進みましょう。
S3の歴史とスケーリングの進化 (35:43)
ストレージについてです。すべてのアプリケーションがコンピュートを必要とするのは、それが計算能力を提供するからですが、同様にすべてのアプリケーションにはストレージも必要です。なぜならデータを保存する場所が必要だからです。
昔の話になりますが、AWSが登場する前のストレージがどのようなものだったか覚えている方もいるかもしれません。ストレージ用の部屋があり、そこには無数のストレージボックスが並んでいました。1つのボックスがいっぱいになると次のボックスを用意し、また次のボックスを用意しなければなりません。そして最初のボックスに戻り、ディスクを交換しなければならないこともありました。これらの作業は非常に管理が大変でした。
今日のようなデータの規模に対応するのは、当時の方法ではほぼ不可能でしょう。2006年、私たちはもっと良い方法を考えました。それは、シンプルで、耐久性があり、高いスケーラビリティを備えた、安全なストレージを提供することでした。このストレージは、どのアプリケーションでも対応できるほど柔軟にスケール可能なものでした。そして私たちはS3を立ち上げました。
S3は2006年に私たちが初めて提供したサービスで、人々のデータ管理の方法を根本的に変えました。爆発的な成長に対応するためにゼロから構築され、この18年間でS3は400兆個以上のオブジェクトを保存するようになりました。これは本当に驚異的な数字です。
10年前の話ですが、当時、1ペタバイト(膨大なストレージ量)をS3に保存していた顧客は100人以下でした。しかし今日では、1ペタバイト以上を保存する顧客が何千人もおり、1エクサバイト以上を保存する顧客も数名います。このようなスケーリング能力は、今日の顧客にとって当たり前のものとなっています。
しかし、スケーリングだけではありません。現在、データは爆発的に増えています。このスケーリング部分については、S3がすべてを処理してくれるとほとんどの方が思っていますが、多くの方が次に気にするのはコストです。しかし、私たちはそのコスト管理を簡単にしています。AWSほどストレージの性能とコストのバランスを取るためのオプションを提供しているところは他にありません。
例えば、S3標準は高い耐久性を持ち、多くのワークロードに適していますが、アクセス頻度が低いオブジェクトにはS3インフリークエントアクセスを使うことでコストを削減できます。また、S3グレイシャーでは、ほとんどアクセスすることがないバックアップやアーカイブ用のオブジェクトのコストを最大95%削減できます。
顧客からは、これらの異なるSKU(ストレージのオプション)が多いことを気に入っているという声が聞かれますが、どのSKUを選ぶべきかを考えるのは複雑であるとも言われます。そこで私たちはその作業を簡単にしました。数年前にS3インテリジェントティアリングを導入しました。
S3インテリジェントティアリングは、ストレージのアクセスパターンを分析し、データを自動的に適切なティアに移動させます。この機能の導入以来、顧客は追加作業を一切行うことなく、40億ドル以上のコストを節約しています。これは本当に素晴らしいことです。
こうして複雑さを完全に排除し、ビジネスの成長に集中できるようになると、ギガバイトのデータやペタバイトのデータ、さらにはエクサバイトのデータの管理も、S3がすべて対応してくれます。このスケール、性能、コストのバランス、使いやすさ、そして高度な機能が、S3が世界中の100万を超えるデータレイクの基盤となっている理由です。
データレイクと大規模分析ワークロードの最適化 (39:15)
データレイクは大規模な分析ワークロードをサポートします。たとえば、財務モデリング、リアルタイム広告、AIワークロードなどがあります。これに対してS3は、これまでの数年間で多くのデータレイクに関連する革新を提供してきました。トランザクション処理能力を向上させることで、より高速な分析を可能にし、強い一貫性のサポートを追加し、クラウド上でのアクセス速度を向上させる低遅延のSKUを追加しました。
顧客と話していると、よく「S3の何が一番好きですか?」と尋ねますが、多くの顧客が答えるのは「S3はただ動く」ということです。この答えは私たちにとって非常に大きな褒め言葉です。しかしご存じのように、AWSは現状に満足することはありません。
そこでS3チームは一歩引いて考え、「S3をどのように改善できるか?」と問い直しました。特に、大規模な分析やAIユースケースのサポートを強化する方法について考えました。
まず、分析データの構造について少し考えてみましょう。ほとんどの分析データは、実際には表形式で整理されています。この形式は、大量のデータを効率的に扱うために非常に効果的です。そして、Apache Parquetはクラウド上で表形式データを保存するための事実上の標準となっています。このParquet形式は、S3に非常に適しているため、S3内で最も急速に成長しているデータタイプの1つです。
多くの顧客は数百万、場合によっては数十億ものParquetファイルをAWSに保存していますが、これらのファイル全体にわたってクエリを実行するには、適切なファイル構造が必要です。現在、多くの人がApache Icebergをこの目的で使用しています。
Icebergは、皆さんもご存じのように、オープンソースの高性能フォーマットであり、さまざまなファイル形式やParquetファイルを横断して作業することができます。これにより、非常に有用な機能が実現されます。たとえば、幅広いデータレイクに対するSQLアクセスを可能にするため、組織内の異なる人々が、SparkやFlinkなどのさまざまな分析ツールを使用しながら安全にデータを操作できます。他人のワークロードを邪魔する心配がないのです。
Icebergは非常に便利なオープンソース構造ですが、その一方で、多くのオープンソースプロジェクトと同様に、特に大規模な環境では管理が非常に難しいという課題があります。パフォーマンスの管理、スケーラビリティの確保、セキュリティの管理が難しく、多くの顧客は専任のチームを雇ってこれらを処理しています。たとえば、テーブルメンテナンス、データ圧縮、アクセス制御の管理などを行い、Icebergの実装からより良いパフォーマンスを引き出そうとしています。
S3 Table Bucketsの導入とデータレイク最適化 (42:16)
では、S3がこれらを自動的に処理できたらどうでしょうか?これを実現するために、私は新しいS3タイプ「S3テーブルバケット」のローンチを発表できることを非常に嬉しく思います。【拍手】
「S3テーブルバケット」は、アイスバーグテーブル専用に設計された新しいバケットタイプです。これにより、すべてのアイスバーグテーブルのパフォーマンスとスケーラビリティが向上します。例えば、ParquetファイルをS3テーブルバケットに保存すると、クエリパフォーマンスが3倍向上し、トランザクション毎秒(TPS)は通常の汎用S3バケットに保存する場合と比較して10倍に向上します。これは、特別な作業を追加することなく得られる大幅なパフォーマンス向上です。
S3テーブルバケットの仕組みは次の通りです。S3がこれらの作業を自動的に行います。バケットにデータを配置すると、S3がテーブルメンテナンスのイベントを処理します。例えば、データの圧縮やスナップショット管理、参照されていないファイルの削除などが自動で行われます。これにより、データレイクが拡大しても、クエリのパフォーマンスやコストが継続的に最適化されます。
これにより、S3がオブジェクトストレージを完全に再発明し、データレイク向けにより優れたパフォーマンス、コスト効率、スケーラビリティを実現します。これはデータレイクのパフォーマンスにとって画期的な変化だと考えています。しかし、パフォーマンスは全体の一部に過ぎません。
データ量が拡大するにつれて、目的のデータを見つけることがますます困難になります。ペタバイト単位のデータを管理する際にはメタデータが非常に重要です。メタデータは、S3に保存されているオブジェクトに関する情報を整理・把握するのに役立ちます。これにより、ペタバイトまたはエクサバイトのデータ量を抱えていても必要なデータを見つけやすくなります。
例として、私のスマートフォンの写真管理を挙げましょう。写真がたくさん保存されている中から、過去のre:Inventでの私の写真を探したいと考えました。検索条件に「ラスベガス」と「2001年」を入力すると、すぐに見つけることができました。これは、スマートフォンが自動的にメタデータを追加しているからです。写真の保存場所や日付といった情報が付加されており、検索が簡単に行えます。
一方、S3で同様の作業を行うのは現在非常に困難です。S3内のオブジェクトのリストを作成し、イベント処理パイプラインを構築してメタデータを追加し、それをオブジェクトに関連付ける必要があります。また、オブジェクトが変更されたり追加・削除されたりすると、その変更をメタデータに反映するためのコードも開発しなければなりません。
スケールが大きくなると、このプロセスは差別化要因とはならない重い作業となり、管理が非常に困難になります。しかし、これを解決するためのより良い方法があります。
S3 Metadataの発表と活用例 (45:45)
S3メタデータの発表に非常に興奮しています。
[拍手]
S3メタデータは、S3データに関する情報を瞬時に発見できる、最速かつ最も簡単な方法です。これにより、合理的なデータ管理が可能になります。仕組みとしては、オブジェクトに関連付けられたメタデータを収集し、それをリアルタイムに近い形で更新されるクエリ可能なメタデータとして提供します。
具体的には、すべてのオブジェクトメタデータを、先ほど紹介した新しいテーブルバケットに自動的に保存します。これにより、すべてのオブジェクトメタデータがアイスバーグテーブルに格納されます。その後、お好みの分析ツールを使用して、このデータと簡単に対話し、クエリを実行できます。これにより、オブジェクトに関する詳細をすばやく把握し、必要なオブジェクトを簡単に見つけることができます。
さらに、オブジェクトが変更された場合、S3が自動的に数分以内にメタデータを更新します。そのため、常に最新の状態を保つことができます。この機能は顧客にとって非常に魅力的であり、S3データの利用方法において大きな変化をもたらすと確信しています。これにより、データ分析や大規模なAIモデリングの利用ケースが大きく進化します。
これらの新しいS3機能について非常に期待しています。
クラウドストレージの未来に向けたAWSの約束 (46:55)
創業当初から、クラウドストレージの可能性を押し広げることに挑戦してきました。これまでに多くの皆様が前例のない規模に成長するのをサポートしてきました。また、コストの最適化を支援し、他に類を見ないパフォーマンスを提供してきました。そして今では、探しているデータを見つけることを驚くほど簡単にしました。
しかし、ここで終わることはありません。私たちの約束は、作業の自動化を進め、複雑なプロセスをどんどん簡略化し、ストレージを再発明し続けることです。これにより、皆様が顧客のためにイノベーションに専念できるようにしていきます。
それでは、スタートアップのお客様の一例を見てみましょう。彼らがどのようにして自分たちの業界を再発明しているのかをご紹介します。
BRET TAYLOR (Sierra) (動画) (47:35)
[音楽]
1995年、デジタルで存在する方法はウェブサイトを持つことでした。2015年には、それがスマホにインストール可能なモバイルアプリを持つことに変わりました。2025年、デジタルで存在する方法はAIエージェントを持つことになるでしょう。
私たちは、ルールベースのソフトウェアの時代から、目標とガードレールに基づくソフトウェアの時代へと移行しました。現在は会話型AIの時代にあり、デジタルで存在する方法は、24時間365日いつでも顧客と会話をすることです。これが、私たちがAmazon Web Servicesを活用して構築した「Sierra」です。
[音楽]
旧来のソフトウェアはルールに基づいていました。典型的なワークフローの自動化を考えると、それは意思決定ツリーのようなものでした。顧客が取り得るすべての可能性を列挙する必要がありました。AIではそれが異なり、Agent OSを使用すると、会社の目標とガードレールをモデル化して、想像し得るあらゆる顧客体験を構築できます。90%の顧客体験が会話型になるとどうなるでしょうか?
[音楽]
Amazon Web Servicesのようなサービスのおかげで、会社を始めるのが驚くほど簡単になりました。私たちは、自分たちが価値を付加したい場所に集中し、Amazonがクラウドインフラストラクチャに投資してきた驚異的な成果を活用しています。
[音楽]
今日、成功した実験を行った企業は、5年後にはAIによってビジネス変革を遂げているでしょう。こうしたテクノロジーに対処する方法は、できるだけ早く飛び込んで学ぶことだと思います。
[音楽][拍手]
Matt Garman (AWS) (49:06)
AWSにおけるデータベースの進化とDynamoDBの役割 (49:06)
とても素晴らしいですね。ありがとう、ブレット。お客様にとってこれは本当に喜ばれると思います。さて、次はもう一つの重要なビルディングブロックであるデータベースに話題を移しましょう。
AWSの初期には、データベースの運用方法を大きく改善する機会があると考えました。データベースは非常に複雑で、管理に多くの労力がかかっていました。お客様はパッチ適用や管理作業などに多くの時間を費やしていましたが、私たちはそれらを代行する余地が多いと認識していました。そこで、この重労働を取り除こうと決心しました。
その結果、最初の完全管理型リレーショナルデータベースサービスであるRDSを発表しました。現在お客様に話を聞くと、もはや管理型ではないデータベースサービスには戻りたくないとおっしゃいます。管理型データベースをとても気に入っていただけています。
RDSを初めてリリースした当時、世界中のほとんどのアプリケーションはリレーショナルデータベース上で動作していました。しかし、アプリケーションの性質は少しずつ進化してきています。インターネットの普及により、アプリケーションのユーザー数が増え、地理的に分散するようになり、パフォーマンスや遅延に対する期待も高まりました。
私たち自身もAmazon.comの小売サイトでこの現象を経験しました。2004年に、エンジニアの何人かが気づいたのは、私たちのデータベース操作の70%以上が単純なキーと値のトランザクションであるということでした。つまり、単純なSQLクエリを実行し、主キーを使って単一の値を取得していたのです。
そのとき自問しました。「なぜリレーショナルデータベースを使っているのか?」これは過剰ではないか、と。そのチームの考えは、もし特化型のデータベースを構築すれば、パフォーマンスを向上させ、コストを削減し、スケーラビリティを向上させることができるのではないかというものでした。
その結果、エンジニアの中の二人、今週の基調講演を行う予定のスワミとヴェルナーが執筆したのが「Dynamoペーパー」です。この技術論文はNoSQLのムーブメントを生み出しました。さらに、このペーパーはDynamoDBの開発につながりました。
DynamoDBはサーバーレスで、NoSQL型の完全管理型データベースです。これは単一ミリ秒のレイテンシーパフォーマンスを、あらゆる規模で提供し、完全にスケールアップおよびスケールダウン可能です。
しかし、Dynamoは私たちが構築した最初の特化型データベースに過ぎません。私たちはこの分野に非常に意欲を燃やし、グラフデータベースや時系列データベース、ドキュメントデータベースなど、さまざまな特化型データベースを構築し始めました。その背後にあるアイデアは、皆さんにとって最適なツールを提供することでした。
これらのNoSQLデータベースや特化型データベースは非常に人気があります。それらは、他では実現できなかったワークロードを可能にしました。そして、皆さんに愛されています。
しかし、時には最適なデータベースが依然としてリレーショナルである場合があります。リレーショナルデータベースは依然として多くのアプリケーションに最適なソリューションであり、これも継続的に進化させてきました。
お客様からは、市販のデータベースの信頼性を持ちながら、より親しみやすいライセンス条項とオープンソースの移植性を備えたリレーショナルデータベースを求められました。その結果、私たちはAuroraを立ち上げました。今年はAuroraの10周年を記念する年です。
[拍手]
Auroraの10周年と革新の成果 (52:19)
Auroraは、もちろん完全にMySQLおよびPostgres互換であり、セルフマネージのオープンソースと比べて3倍から5倍の性能を発揮し、商用データベースの10分の1のコストで提供します。Auroraが何十万もの顧客にとって最も急成長し、人気のあるサービスとなったのは驚くことではありません。しかし、私たちはイノベーションを止めることはありませんでした。以下は、Auroraがこれまでに提供してきたイノベーションの一部です。
サーバーレスを導入し、容量管理の負担をなくしました。AuroraのI/Oを最適化し、より良い価格性能比とコストの予測可能性を提供しました。データベースの水平スケーリングを完全に無制限にする「リミットレスデータベース」を実現しました。さらに、ジェネレーティブAIのユースケースを支援するために、Aurora内にAIのベクター機能を追加しました。これ以外にも多くのイノベーションがあり、私たちはコスト、性能、使いやすさ、機能性の限界を押し広げ続けています。
そこでチームはこれらすべてのイノベーションを振り返り、いくつかの最高のデータベース顧客と話し合い、理想的なデータベースソリューションとはどのようなものかを尋ねました。制約をすべて取り払ったら、どのようなデータベースが理想的か、と。顧客は次のように答えました。「すべてを提供するのは難しいのは分かっていますが、もし可能ならば、以下のようなデータベースが欲しいです。高可用性を持ち、マルチリージョンで動作し、読み書きの低遅延を提供し、強い整合性を持ち、運用負担がゼロで、SQLセマンティクスに対応しているもの」。
これだけ多くの要素を満たすのは非常に難しいことです。そして多くの人は、「すべてを手に入れることはできない」と言うでしょう。実際、多くの場合、「AまたはBを選ぶ」ような選択肢が提示されます。しかし、この「AかBか」という問題は、思考を制限してしまいます。Amazonでは、これは「またはの専制(Tyranny of the Or)」と呼んでいます。このアプローチは、誤った境界を作り出し、「AかBかを選ばなければならない」と瞬時に考えてしまう状況を作り出します。しかし私たちはチームに、「AもBも実現する方法を考えるように」と促します。これにより、思考が大きく変わるのです。
確かに、市場にはすでにこれらの機能の一部を提供するデータベースがあります。たとえば、低遅延と高可用性を提供するデータベースもありますが、それらでは強い整合性を得ることはできません。また、他のデータベースでは、グローバルで強い整合性と高可用性を提供するものもありますが、それらの遅延は非常に高く、SQL互換性を期待することはできません。
そこで、私たちは「AもBも実現する」ことに挑戦しました。そして、Auroraのエンドツーエンドの環境、つまりエンジン、インフラストラクチャ、インスタンスをすべてコントロールしているため、多くのことを変えられることが分かりました。最初に行ったことの一つは、データベースエンジンのコア部分が、グローバルなフットプリントとどのように連携するかを見直すことでした。これにより、求められる能力を提供できる可能性があると考えたのです。
低遅延と強整合性を両立する新アーキテクチャ (55:20)
マルチリージョンでの強整合性を維持しながら、低遅延を実現するという課題に直面しました。これは非常に難しい問題です。アプリケーションが複数のリージョンにまたがって書き込みを行う場合、トランザクションを正しい順序でシーケンス化する必要があります。これにより、すべてのアプリケーションが常に最新のデータを読むことが保証されます。しかし、その際、データにロックをかけて競合を回避する必要があり、これが書き込みと読み取りのパフォーマンスに影響を与えます。
現在のデータベースエンジンではこれを実現することができますが、非常に遅いのです。その理由を説明しましょう。たとえば、アクティブ-アクティブのデータベースセットアップを2つのリージョン間で構築しているとします。このトランザクションには平均的なデータベーストランザクションに相当する約10個のステートメントが含まれています。通常、1つのリージョン内で操作する場合、アプリケーションとデータベース間で10回のコミットを行います。この場合、遅延は非常に少なく、迅速に動作します。しかし、これをリージョン間で行うと、通信が10回往復するため、非常に遅くなります。
たとえば、バージニアと東京にデータベースがある場合、往復の遅延は約158ミリ秒です。これが10回往復することで、トランザクションの完了には1.6秒かかります。リージョンが増えるとさらに遅くなり、多くのユースケースでは許容できない遅延となります。
これは物理的な制約であり、光速の限界を超えるには時間がかかるでしょう。しかし、AWSではこのデータベースエンジンの仕組みを根本的に変えることで、この問題に取り組むことにしました。
そこで、新しいアーキテクチャを構築することを考えました。このアーキテクチャでは、すべての往復通信を排除することで、遅延を90%削減することを目指しました。1.6秒のトランザクションを158ミリ秒に短縮できる可能性があります。
具体的には、トランザクション処理をストレージ層から分離し、すべてのリージョンに対する書き込みを並列で実行します。これにより、リージョン間の強整合性を維持しながら、超高速でデータベースに書き込みが可能になります。
ただし、新たな課題が発生します。それは、複数のリージョンで独立して書き込みを行った場合、それらのトランザクションを正しい順序でコミットする方法です。順序が乱れるとデータの破損や大きな問題が発生します。この問題を解決するには、すべてのトランザクションを正しいタイムスタンプ順に整列させる必要があります。
理論上、データベースのクロックが完全に同期していれば可能ですが、現実には「クロックドリフト」と呼ばれる問題があります。複数のデータベース間で時刻が微妙にずれており、これを正確に一致させるのは困難です。
しかし、AWSはインフラ全体をコントロールしているため、この問題を解決するための基盤を構築しました。それが「Amazon Time Syncサービス」です。すべてのEC2インスタンスにハードウェア参照クロックを追加し、これが衛星接続された原子時計と同期します。これにより、世界中のどのインスタンスでもマイクロ秒単位の精度で時間を同期できるようになりました。
このマイクロ秒精度のタイムシンクと、新たに設計されたトランザクションエンジンにより、強整合性と低遅延の両立を実現するための基盤が整いました。
Amazon Aurora DSQLの発表 (59:39)
とても嬉しく思います。このたび、Amazon Aurora DSQLを発表します。
[拍手]
これはAuroraの次世代の時代を切り開くものであり、Aurora DSQLは世界で最も高速な分散型SQLデータベースです。Aurora DSQLは、リージョンをまたいで事実上無限のスケールを提供し、完全にサーバーレスな設計により、インフラ管理を完全に不要にします。必要に応じてスケールをゼロまで下げることも可能です。
Aurora DSQLは、99.999%の可用性を提供します。強整合性を持ち、読み書きの遅延も低いです。また、PostgreSQL互換なので、すぐに利用を開始できます。
今回、この新しい提供サービスが現在最も近い競合であるGoogle Spannerとどのように比較できるかを調査しました。マルチリージョン環境でのセットアップを行い、先ほど説明した同じ10ステートメントのトランザクションでベンチマークを実施しました。その結果、AuroraはSpannerと比較して読み書きで4倍高速であることが分かりました。
とても素晴らしい結果で、皆さんがこれをどのようにアプリケーションに活用するのかを見るのが楽しみです。
[拍手]
ただし、もう1つお伝えしたいことがあります。実は、リレーショナルデータベースだけが、マルチリージョン、強整合性、低遅延の恩恵を受けるわけではありません。
DynamoDB Global Tablesの新機能 (1:01:02)
このたび、DynamoDBグローバルテーブルにも同様のマルチリージョン対応の強整合性を追加することを発表できることを嬉しく思います。
[拍手]
これにより、SQLでもNoSQLでも、アクティブアクティブのマルチリージョンデータベースを使用し、強整合性、低遅延、高可用性のすべての利点を享受できます。
このような基本的な構成要素における革新的な進歩こそが、世界最大級の企業がAWSをワークロードのために信頼する理由です。
JPMorgan Chaseのクラウド移行の進展 (1:01:33)
その企業の一つがJPMorgan Chaseです。2020年には、JPMCのCIOであるLaurie Beer氏がステージに登場し、AWSへのクラウド移行を開始したばかりの状況について語ってくれました。
それからの4年間、JPMCのチームはインフラの近代化に向けて多くの取り組みを行ってきました。本日はLaurie氏を再びお迎えし、その取り組みの進捗についてお話しいただけることをとても楽しみにしています。
どうぞLaurie Beer氏をお迎えください。
[音楽]
Lori Beer (JPMorganChase) (1:02:05)
JPMorgan Chaseのスケールとクラウド移行の進展 (1:02:05)
おはようございます。JPMorgan Chaseは225年の歴史を持つ機関で、世界中の顧客、クライアント、企業、政府にサービスを提供しています。私たちの使命は、「誰もが、どこでも、毎日、夢を実現できるようにすること」です。
そして、これを非常に大規模に実現しています。アメリカでは8,200万人以上の顧客をサポートし、住宅購入、教育、その他の家族の重要な節目を支援しています。私たちはフォーチュン500企業の90%以上を取引先とし、毎日10兆ドルの決済を処理しています。
こうした背景から、技術への投資として年間170億ドルを充て、成長を推進するための意欲的な近代化計画を展開しています。私たちには44,000人のソフトウェアエンジニアがおり、6,000以上のアプリケーションを運用し、市場、顧客、商品、リスク、コンプライアンスなどから得られるほぼ1エクサバイトのデータを管理しています。
4年前のre:Inventで私が登壇したことを覚えている方もいらっしゃるかもしれません。今回は進捗をご報告できることを大変嬉しく思います。この4年間で業界は劇的に進化しましたが、当社のクラウドプログラムの核心となる原則は変わっていません。
- 強固でレジリエントなセキュリティ基盤を確立し、厳格な規制フレームワークに対応する* ビジネスと技術の両面で近代化を優先* AIやサーバーレスといった革新的なサービスを活用し、新しい製品開発を推進、マーケット投入を加速* 最も影響力のあるユースケースに優先順位を付け、移行を慎重に進める
これらの原則は、ビジネスの成長を支える基盤となっています。現在、私たちはアメリカ国内のeコマース取引の50%以上を処理しています。年末商戦の開始を告げる先週末の取引量を想像してみてください。私たちのビジネスは世界経済にとって非常に重要であり、そのためレジリエンスはすべての活動の中心にあります。
このため、私たちはグローバルな銀行および決済インフラの構築方法を再定義し、クラウドで可能性の限界を押し広げています。AWSと共にクラウドの旅を数年前に開始しました。
- 最初のアプリケーションでは、EC2、S3、EKSといった主要なサービスを活用しました。* 数年後の2020年には、クラウド上で100のアプリケーションを達成しました。* 2021年にはその数を倍増し、ヨーロッパに進出。英国ではAWS上でゼロから構築した消費者向け銀行「Chase」を開始しました。* 2022年にはAWS Gravitonチップを活用し、パフォーマンス向上を実現しました。* 2023年にはGPUを活用し、預金や決済などのコアサービスを含む約1,000のアプリケーションがAWS上で稼働するようになりました。
現在、生成AI(GenAI)のユースケースを積極的に展開し、AWSのBedrockロードマップと協力しています。
AWSを活用した主要プラットフォームのモダナイゼーション (1:05:52)
クラウド上のアーキテクチャ設計により、私たちはビジネスプラットフォームの近代化を実現し、新しいプラットフォームを構築できるようになり、継続的なイノベーションを可能にしました。市場や決済業務、そしてChase.comというフラッグシッププラットフォームにおける近代化の例を3つ挙げることができます。
市場および決済業務では、大量の弾力的なコンピュートリソースと最新のクラウドサービスを活用することで、リスクや市場の変動性を分析することが可能になりました。また、これにより私たちは世界最大規模の決済処理事業者の1つとなっています。
2年前には、私たちのフラッグシップの消費者向けアプリであり、モバイル体験の基盤でもあるChase.comをAWSへ移行しました。この移行により、コストを削減するとともに、レジリエンスを向上させました。
どのように実現したのでしょうか?私たちは複数のAWSリージョンにまたがるアクティブ・アクティブ・アクティブ構成を採用しました。この強固なレジリエンスポスチャにより、3つのリージョンのうち2つが障害を起こしても顧客への影響がありません。また、地理最適化されたルーティングによって、全体的な顧客体験も向上しました。
AWSとの強力なパートナーシップにより、インフラストラクチャスタックは頻繁かつ自動的にリフレッシュされ、リスクとレジリエンスポスチャの向上が図られ、セキュリティ制御にも対応しています。
さらに、新しいビジネスも立ち上げました。このビジネスではAWS Fusionを活用して、データ管理プラットフォームと投資ライフサイクル全体の分析を提供しています。このプラットフォームは、複数のデータソース間の相互運用性を向上させ、当社の機関投資家クライアントに大規模なデータ基盤へのアクセスを提供しています。
これは、当社が持つデータ管理ソリューションの一例にすぎません。
データとAIを基盤とした次世代技術の展開 (1:07:50)
私たちは約1エクサバイトものデータを所有しており、これは最も重要な資産の一つです。特に、AWSのデータ管理ツールであるGlueを活用することで、データは発見可能で、アクセスしやすく、相互運用性があり、再利用可能な状態を維持しています。この安全なエンドツーエンドのデータとAIプラットフォームは、私たちがテクノロジーを近代化し構築する方法にAIをますます組み込む際に大きな役割を果たしています。
このプラットフォームは、当社が次世代のAIアプリケーションを構築するための推進力となっています。SageMakerは、実験からモデルの展開に至るモデル開発ライフサイクルを簡素化するのに役立っています。SageMakerは、当社の全社的なAIプラットフォームの基盤であり、このプラットフォームは再利用可能で拡張可能なアーキテクチャを持つように設計されています。これにより、当社のデータサイエンティストはエコシステムから最先端のソリューションを活用できるようになります。
現在、5000人以上の社員が毎月SageMakerを利用しており、さらにBedrockの活用を開始しています。これは、当社のデータで微調整可能なより多くのモデルをデータサイエンティストがシームレスに利用できるようにすることを目指しています。
私たちの目標は、ジェネレーティブAI(GenAI)を大規模に活用することであり、規制された企業環境内でこれらの新しい革新的な機能を最適に活用する方法を学び続けています。
ジェネレーティブAIの活用と企業変革への影響 (1:08:48)
私たちは、社内向けAIアシスタントである「LLM C-Suite」を約20万人の社員に展開しました。また、他のジェネレーティブAI(GenAI)活用事例からもすでに価値を見出しています。
銀行員やアドバイザーは、AIが生成したアイデアを活用して、より良い形で顧客とエンゲージメントを図っています。旅行代理店では、LLMを利用して顧客の旅行日程を作成し、予約を手助けしています。コールセンターの担当者は、通話の書き起こしを要約し、大規模にインサイトを提供しています。また、開発者はAIによるコード生成ツールを活用しています。
現在、開発者向けAIエージェントを並行して活用する方法を模索中です。
未来の金融サービスに向けたJPMorgan Chaseのビジョン (1:10:02)
企業の変革を率いるにあたり、AWSのようなプロバイダーが提供する数々のテクノロジーのおかげで、これほど刺激的な時代はありません。次の技術進化の波が訪れることを楽しみにしていますし、JPMorgan Chaseが未来の金融サービスを提供するために万全の体制を整えていることを誇りに思います。
ありがとうございます。
[拍手][音楽]
Matt Garman (AWS) (1:11:00)
Generative AIのインパクトとBedrockの価値提案 (1:11:00)
ご来場いただきありがとうございます。過去4年間でチームがどれだけ成長したかを見るのは素晴らしいことで、モダナイゼーションの取り組みが俊敏性の向上という形で実を結んでいるのを見られるのは嬉しいです。また、JPMCのチームが生成AIのような新しい技術を活用する準備が整っているのも素晴らしいですね。
さて、私たちは、ビルダーが思い描くあらゆるものを創造するために使えるビルディングブロックのセットが必要だと話しました。また、これまでに取り上げた多くのケースで、アプリケーションが変化するにつれて、それに対する考え方もどのように再定義されてきたかについてもお話ししました。
今、人々のアプリケーションに対する期待は再び変わりつつあります。それは生成AIによるものです。そして私の考えでは、生成AI推論は今後すべてのアプリケーションの中核的なビルディングブロックになるでしょう。実際、生成AIはあらゆる産業、あらゆる企業、あらゆるワークフロー、あらゆるユーザー体験を変革する可能性を秘めていると考えています。
すでに起きている変化を見てください。例えば金融サービス業界では、生成AIを使って市場操作を検知しています。進化的スケール(Evolutionary Scale)のような製薬会社では、新薬を従来よりもはるかに速く発見するためにこれを活用しています。個人的に好きなフットボールを観る際、木曜日のナイトフットボールでは、プレーが始まる前に次世代統計の予測で、ブリッツァー(守備側選手)がクォーターバックを攻撃するかもしれないといった状況が表示されるのを見るのが楽しいです。こうしたユーザー体験がどのように変わるかを見るのは面白いですね。
そして、これはまだ始まりにすぎません。現在、多くの顧客は生成AIアプリケーションについて語りますが、今後は推論がすべてのアプリケーションの一部になるでしょう。この分野での分断はなくなり、すべてのアプリケーションが推論を何らかの形で活用し、アプリケーションを強化したり構築したり、実際に変革したりするでしょう。
もし本当にそれを実現したいなら、スケールで推論を提供できるプラットフォームが必要です。そのためには、データに統合するためのツールが必要であり、適切なパフォーマンス、セキュリティ、そしてコストをすべて備えている必要があります。
これが、私たちがBedrockを構築した理由です。Bedrockは、生成AIアプリケーションを構築しスケールするための最も簡単な方法です。しかし、Bedrockが特に優れており、顧客に響いているポイントの一つは、生成AIを単なる概念実証にとどまらず、実際のプロダクションアプリケーションに統合するために必要なすべてを提供することです。顧客はすでにこれにより現実的な成果を上げ始めています。
Genentechの事例: 医薬品開発の効率化 (1:13:15)
ジェネンテックを例にとりましょう。この企業はバイオテクノロジーと製薬のリーディングカンパニーであり、科学データとAIを活用して、新薬や臨床試験用のバイオマーカーを迅速に特定することで、薬の発見と開発を加速しようとしています。しかし、このようなデータを見つけるには、科学者がPubMedの3,500万件の生物医学ジャーナルや、ヒトタンパク質アトラスのような公的リポジトリ、さらには何億もの細胞に関するデータを持つ社内データソースを網羅的に調査する必要がありました。
Amazon Bedrockを使って、ジェネンテックはGenAIシステムを設計しました。このシステムでは、科学者がデータに対して詳細な質問をすることができます。たとえば、「炎症性腸疾患の特定の細胞で豊富に存在する細胞表面受容体は何か?」という質問です。このシステムは膨大なデータライブラリから適切な論文やデータを特定し、すべての洞察やデータソースを統合します。さらに、このシステムは情報の出典をまとめ、科学的な理由や追跡可能性の観点から非常に重要な引用情報を提供します。その結果、科学者は必要なデータをすぐに利用して作業を進めることができます。
これまで、このような調査に何週間もかかっていたジェネンテックの科学者たちは、今では数分で同じ作業を完了できるようになりました。ジェネンテックは、手作業で行っていた約5年分の作業を自動化し、最終的には新薬をより迅速に顧客に届けることを目指しています。
現在、Bedrockは毎日数万社の顧客によって本番環境で使用されています。この1年だけでも、その利用率は約5倍に増加しました。さらに、直接AWSの顧客でない企業も多く、Salesforce、SAP、Workdayといった世界有数の独立系ソフトウェアベンダー(ISV)が、顧客体験を向上させるためにGenAIアプリケーションを提供するべく、Bedrockを深く統合しています。
では、なぜこれほど多くの企業がBedrockを利用しているのでしょうか?その理由の一つは、すべての人が1つのモデルだけを使いたいわけではないという観察です。顧客は多種多様なモデルを活用したいと考えています。たとえば、LlamaやMistralのようなオープンウェイトモデルをカスタマイズしたい顧客もいれば、StabilityやTitanのような画像モデルを必要とするアプリケーションもあります。また、Anthropicの最新モデルを活用する顧客も多く、これらは今日市場で最も優れた一般知能および推論能力を持つモデルとみなされています。
しかし、この分野では驚くほどのスピードでイノベーションが進行しています。ほぼ毎週、新しいモデルや機能、アップデート、コスト構造が発表されています。それでも、これらのモデルの中から完璧なものを見つけるのは意外と難しいことが多いです。多くの場合、必要なのは、自分が達成したいことに最適な専門知識と、適切なレイテンシとコストのバランスです。
ただし、それを実現するのは簡単ではありません。たとえば、非常に高い専門知識を持つモデルがあったとしても、それがコスト的に高すぎたり、アプリケーションに必要な速度に達していなかったりすることがあります。一方で、速くて安価なモデルがあっても、必要な能力を持っていない場合もあります。
この問題を解決する方法の一つが「モデル蒸留(Model Distillation)」です。モデル蒸留では、大規模なフロンティアモデル、たとえばLlama 405Bモデルのようなものを使用します。この高度な能力を持つモデルに、想定されるすべてのプロンプト(質問)を送信し、得られたデータや回答を基に、特定の用途に特化した小型モデル(この例ではLlama 80モデル)を訓練します。
モデル蒸留機能による生成AIのROI改善 (1:17:09)
この小型で高速なモデルは、特定の質問セットに正確に答える専門家として機能します。この方法は、専門的なモデルを提供する上で非常に効果的ですが、機械学習の専門家が必要です。データワークフローの管理、トレーニングデータの管理、モデルパラメーターの調整、モデルウェイトの調整など、多くの作業が求められるため、非常に難しいプロセスです。
そこで、これを簡単にするために、今日はBedrockでのモデル蒸留機能を発表できることを嬉しく思います。【拍手】
蒸留されたモデルは、元のモデルと比較して500%速く、75%安価に実行できます。これは非常に大きな差であり、Bedrockがこれを完全に自動化します。このコストの違いにより、生成AIアプリケーションのROI(投資収益率)に劇的な影響を与える可能性があります。高コストのために本番環境で展開できないものが、実際には非常に価値のあるものになるような変化をもたらします。
Bedrockはこのすべての作業をあなたの代わりに行います。アプリケーションのサンプルプロンプトをBedrockに送信するだけで、すべての作業が自動的に処理されます。
最終的には、適切な専門知識、レイテンシー、コストのバランスを備えたカスタム蒸留モデルを手にすることができます。しかし、適切なモデルを手に入れるのは最初のステップに過ぎません。
生成AIアプリケーションの真の価値は、エンタープライズデータと賢いモデルを組み合わせたときに生まれます。このときこそ、顧客にとって本当に差別化され、興味深い結果が得られます。企業独自のデータと知的財産が、他社との差別化のポイントとなります。
Retrieval-Augmented GenerationとBedrock Guardrails (1:18:36)
データをモデルに組み込んで活用する最も人気のある方法の1つに、Retrieval Augmented Generation (RAG)と呼ばれる手法があります。これは、エンタープライズデータに基づいた、より関連性が高く、正確でカスタマイズされた応答をモデルが生成できるようにする技術です。
今年の初めに、私たちはKnowledge Basesを発表しました。これは、Bedrock の一部として提供される管理された RAG インデックスです。この機能は、データの取り込み、検索、補強のワークフローを完全に自動化します。つまり、これらを自分で組み立てる必要はなく、完全に管理された形で提供されます。あなたがすることは、Knowledge Bases をデータソースに向けるだけで、システムが自動的にデータをテキスト埋め込みに変換し、それをベクターデータベースに保存します。
さらに、すべての検索結果には自動的に引用が含まれるため、情報の出所が明確になり、信頼性が向上します。Knowledge Bases は Bedrock の中でも特に人気のある機能の1つであり、新しい機能が次々と追加されています。さまざまなフォーマットのサポートが拡大し、OpenSearch や Pinecone などの新しいベクターデータベースのサポートも追加されました。
Bedrock は、このようにして適切なモデルを提供し、エンタープライズデータを組み合わせるためのツールを構築しています。次に必要なのは、アプリケーションができることや応答内容の範囲を設定する仕組みです。そのために私たちはBedrock Guardrailsを導入しました。これにより、アプリケーションの安全性を簡単に定義し、責任ある AI チェックを実施できます。
Guardrails は、モデルにガイドラインを設定する仕組みです。たとえば、保険に関するアプリケーションでは、顧客が保険商品について質問することには答えるようにしつつ、政治や医療アドバイスについては答えないようにすることができます。このように、特定の領域に限定した回答を行うようにするのです。
Bedrock がこれほど人気である理由の1つはここにあります。昨年、Proof of Concept(概念実証)を構築していた頃には、こういった機能はそれほど重要ではありませんでした。モデルが「クールなことをする」だけで良かったのです。しかし、これを本格的なエンタープライズアプリケーションに深く統合する際には、これらの機能が必要になります。
しかし、生成 AI を本番環境、特にミッションクリティカルな用途に移行する際に多くの人々が直面するもう1つの問題があります。それが「幻覚(hallucinations)」です。現実には、今日のモデルが非常に優れているにもかかわらず、時には誤った結果を出すことがあります。
例えば、昨年やその前の年に概念実証を行った際には、90%の精度で十分とされていたかもしれません。しかし、実際の本番環境では、それでは不十分です。保険を例にとってみましょう。朝、浴室で水漏れを発見したとします。そして保険会社のウェブサイトにアクセスし、それが保険でカバーされるかどうかを知りたいと思うでしょう。このような場合、保険会社としては正確な回答を提供することが絶対に必要です。間違いは許されません。
こうした課題を解決するために、Amazon のチームに「私たちが持つ技術の中で、この問題に新しい形で適用できるものがあるかどうかを考えてみよう」と依頼しました。チームはさまざまな技術を検討しましたが、その中の1つが自動推論(Automated Reasoning)と呼ばれる手法です。
自動推論チェックによるモデルの正確性向上 (1:22:06)
さて、自動推論(Automated Reasoning) は、実際にはAIの一形態であり、何かが数学的に正しいことを証明する技術です。通常、この技術はシステムが仕様通りに動作していることを証明するために使われます。
自動推論は、手動で確認するには範囲が広すぎるような非常に大きな領域があり、またシステムがどのように動作するべきかに関する知識が存在していて、なおかつ正確な回答が必要不可欠である場合に非常に有効です。
実は、Amazon AWS には世界でもトップクラスの自動推論の専門家たちがいて、私たちはこの技術をいくつかのサービスの裏側で活用しています。例えば、IAMポリシーで皆さんが定義した権限やアクセスが意図通りに実装されていることを証明するために自動推論を使用しています。このアプローチを私たちは「証明可能なセキュリティ(Provable Security)」と呼んでいます。
また、S3でも自動推論を活用しています。S3のストレージシステムを構成するソフトウェアの大部分について、自動推論を用いてシナリオを自動的にチェックし、デプロイ前に確認を行います。これには、予期しないイベントに対する正しい動作の検証などが含まれています。これにより、可用性や耐久性にリスクをもたらすような問題が発生しないことを保証しています。
さらに、この自動推論は他の多くの領域でも活用されています。そこで私たちは考えました。この技術がモデルの正確性を保証するために役立つ可能性はないだろうか? ここでの答えは明らかです。なぜなら、この話題をステージで取り上げているということは、答えが「はい」だからです。
というわけで、本日、Amazon Bedrock Automated Reasoning Checks の発表をとても嬉しく思います。
[拍手]
自動推論チェックは、モデルの幻覚(hallucinations)による事実誤認を防ぎます。自動推論チェックを実装すると、Bedrockがモデルが生成する事実の正確性を確認できます。これは完全に数学的に正しい検証に基づいており、その結論に至った経緯を明確に示します。
例えば、保険の例をもう一度考えてみましょう。保険会社として自動推論チェックを実装すると決めた場合、まずはすべてのポリシーをアップロードします。その後、Bedrock内の自動推論システムがルールを自動的に生成します。このプロセスでは、モデルの応答を調整するための反復作業が行われ、通常20〜30分ほどで完了します。これにより、ポリシーがどのように機能するかをシステムが深く理解します。
前述の漏水の例に戻ると、自動推論はモデルが生成した回答を確認し、もしその回答が確実でない場合は、別の提案やモデルへの再送信を行うよう顧客に指示します。そして、自動推論チェックがその回答が正しいと確認した場合にのみ、顧客に回答を送信します。これにより、顧客に送る回答が100%正確であることを保証できます。
これは他では得られない機能であり、ミッションクリティカルなアプリケーションに推論を組み込む際に顧客に大きな助けとなると考えています。
現在、GenAIのユースケースから得られる価値は非常に大きく、これらの機能はより多くのアプリケーションに対応する能力を顧客に提供します。しかし、最近のトレンドでは、単にデータを得るだけでなく、それを基に行動を起こし、何かを実行することが次の大きな飛躍だと言われています。そのために登場するのがBedrockエージェントです。
Bedrockは、企業システム全体やデータを横断してタスクを実行するエージェントを簡単に構築できるようにします。Bedrockを使用すると、自然言語で指示を記述するだけでエージェントを迅速に構築でき、そのエージェントは例えば販売注文の処理、財務報告書の作成、顧客維持の分析などを行うことができます。
この背後では、モデル推論が使用されています。これにより、ワークフローが分解され、エージェントが適切なAPIを呼び出して必要なアクションを実行できます。
現在、これらのエージェントは単純なタスク、孤立したタスクには非常にうまく機能し、顧客はすでにBedrockエージェントから大きな価値を得ています。しかし、顧客からのフィードバックとして、さらに複雑なタスクを実行したいという要望が寄せられています。たとえば、数百のエージェントが並行してタスクを実行し、それらを調整するような機能が求められています。
具体例として、グローバルなコーヒーチェーンを運営していると仮定します。新しい店舗を開設するリスクを分析するために複数のエージェントを作成しようとします。例えば、世界経済の要因を分析するエージェント、関連する市場動向を見るエージェント、独立店舗の財務予測を作成するエージェントなど、12個のエージェントを作成したとします。
これらのエージェントが返してくる個々の情報をまとめて比較するのは、何とか管理可能です。しかし、実際には1か所だけでなく、複数の地域の数百の店舗について分析したい場合、エージェント同士が相互に情報を共有する必要が出てきます。これが非常に複雑になります。数百のエージェントが相互に情報をやり取りし、それを調整するという作業は、急激に管理不可能なほどの複雑さを持つシステムへと膨れ上がってしまいます。
Bedrockエージェントの複数エージェント連携機能 (1:27:54)
これがうまく機能すれば非常に価値があります。しかし、実現するのは非常に難しい作業です。そこで、今回発表するのは、Bedrockエージェントのマルチエージェントコラボレーション対応です。
[拍手]
これにより、Bedrockエージェントは複雑なワークフローをサポートできるようになります。前述の例のように、特定の個別タスクに特化したエージェントを作成します。そして、それらを統括する「スーパーバイザーエージェント」を作成します。このスーパーバイザーエージェントは、複雑なワークフローの「頭脳」として機能します。
スーパーバイザーエージェントは、どのエージェントが機密情報にアクセスできるかを設定したり、タスクが順番に実行されるべきか、それとも並列で実行できるかを判断したりします。また、複数のエージェントが情報を返してきた場合、競合する情報の調整を行い、それぞれに新しいタスクを割り当てることもできます。このように、専門化されたエージェント同士の協調を確保します。
具体例として、ムーディーズ(Moody's)との共同作業があります。ムーディーズは金融分析とリスク管理サービスの大手プロバイダーです。彼らはBedrockのマルチエージェントコラボレーション機能のベータ版を使用し、ある証明概念(PoC)をテストしました。それは、前述のコーヒーチェーンの例に似たアプリケーションで、顧客向けに包括的な金融リスクレポートを生成するものでした。
このPoCを実施する以前は、このようなリスクレポートの作成に1人の社員が約1週間を要していました。しかし、このマルチエージェントコラボレーションを活用したことで、同じタスクを1時間で達成できるようになり、さらに任意の数の企業に対して並行してスケールすることが可能になりました。
これは驚異的な効率向上です。Bedrockは、これまでほぼ不可能だった協調作業のエンジニアリングをシンプルにし、それを現実のものにします。これこそが私たちが目指していることです。
生成AIがもたらす未来への展望とAWS Bedrockの役割 (1:29:37)
私たちは、生成AIの非常に初期段階にいることは間違いありません。しかし、すでにいくつかの素晴らしい体験が生まれ始めています。本日もいくつかの例を見てきましたが、それらは推論を使って構築され、アプリケーションのコア部分として組み込まれています。そして、これらすべてがBedrockによって支えられています。
なぜBedrockなのか。それは、Bedrockが最高のモデルを提供し、適切なツールや機能を備えているからです。そして、その多くの機能は他のどこにもないものです。Bedrockは、これらの画期的な結果を実現できる唯一の場所です。
さらに、利用するすべての機能は、プライバシーとセキュリティを最初から組み込んで構築されています。なぜなら、皆さんのデータと知的財産(IP)が差別化要因となるものであり、それを安全に保ち、アクセスを保護することが極めて重要だからです。Bedrockは、この点を最初からサポートするために設計されています。
そして、これで終わりではありません。この1週間で発表される新機能はほんの一部に過ぎません。この基調講演をまとめる際に最も難しかったことの一つは、数多くのBedrockに関する発表の中から、どれを取り上げるかを選ぶことでした。
幸いなことに、明日の基調講演ではSwamiがさらに多くの内容を紹介してくれる予定ですので、ぜひチェックしてください。
さて、世界中のお客様がAWSを活用して、推論を新たな基礎構造として驚異的なものを構築しています。
Amazon CEO Andy Jassyの登壇 (1:31:16)
しかし、私が言いたいのは、おそらくAWSのビルディングブロックを最も活用している会社が1社あります。それはAmazonです。AWSは、これまでAmazonがイノベーションを起こし、スケールを拡大する上で不可欠な役割を果たしてきました。
そこで、この話題についてさらに詳しくお話しいただくために、AWS基調講演のステージに再びお迎えするのは、クラウドコンピューティングのゴッドファーザーであり、AmazonのCEOであるAndy Jassy氏です。
[拍手][音楽]
Andy Jassy (1:31:58)
AmazonのAI戦略と実用的AIのアプローチ (1:31:58)
マット、ありがとうございます。また皆さんとお会いできて光栄です。お招きいただき、ありがとうございます。今日は、AmazonにおけるAIに対する考え方について少しお話ししたいと思います。
私たちは、過去25年間にわたり、会社全体で広範にAIを活用してきました。しかし、技術に対する私たちの考え方、これはAIにも当てはまりますが、技術を使うのは「かっこいい」からではなく、お客様の問題を解決するためです。だからこそ、AIについて話すとき、世界最高のチェスプレイヤーに勝ったと発表することではなく、小売事業でより良い、よりパーソナライズされたおすすめを提供するためや、配送センターの作業員に最適なルートを提示し、商品をより迅速に届けるため、あるいは数年後には1時間以内に商品を届けることを目指すPrime Airドローンに活用するため、Amazon GoストアのJust Walk Out技術に活用するため、Alexaを強化するため、または25以上のAWS AIサービスを提供し、皆さんが私たちのサービス上に素晴らしいアプリケーションを構築できるようにするためです。
私たちは、お客様にとって本当に重要だと思う技術に優先的に取り組んでいます。そして、ここ数年で生成AIが爆発的に進化してきた中で、私たちは同じアプローチを取り入れています。多くのイノベーションが生まれていますが、私たちが目指しているのは、皆さんの問題を解決すること、つまり「実用的なAI」です。
これまでに何が見えてきたでしょうか?世界中の企業で最も成功しているのは、コスト削減と生産性の向上における成果です。多くの企業がそこで成果を上げていますが、完全に再考され、再発明された顧客体験も生まれ始めています。
私たちがAmazon内部で生成AIを活用して構築しているアプリケーションを見ても、同じトレンドが見られます。そこで、いくつかの例をご紹介します。
カスタマーサービスの向上 (1:33:43)
例えば、カスタマーサービスを考えてみましょう。私たちには数億人のお客様が利用する小売事業がありますが、時折、お客様がカスタマーサービスに連絡する必要が出てきます。ほとんどのお客様は迅速に自分で対応したいので、セルフサービスを好みます。
数年前、私たちはチャットボットを構築しましたが、それはもちろん機械学習を使用していましたが、静的な意思決定ツリーを使ったもので、お客様が答えを得るまでに多くの言葉を読む必要がありました。そこで数年前、このチャットボットを生成AIを用いて再構築しました。その結果、お客様にとってはるかに使いやすいものになりました。
例えば、私が数日前に商品を注文したとしましょう。この新しいチャットボットにアクセスすると、私たちはあなたが誰であるか、数日前に注文したこと、注文内容、住所を把握しています。このモデルでは、数日後に連絡をいただいた場合、それが返品に関する問い合わせである可能性が高いと予測することができます。そして、お客様がその旨を伝え始めたら、すぐに最寄りのWhole Foodsなどの物理的な返品場所をお知らせできます。また、このモデルは、お客様がイライラしていると感じた場合に、迅速に人間のスタッフにつなげる必要があることを予測する賢さも備えています。
このチャットボットは再設計前でも非常に高い顧客満足度を誇っていましたが、生成AIの頭脳を追加して以来、顧客満足度が500ベーシスポイント向上しました。これが実用的なAIの例です。
販売者支援ツールの改善 (1:35:05)
次に販売者について考えてみましょう。私たちの小売サイトでは、約200万人の販売者が商品を販売しています。現在、販売する商品の60%以上がこうした販売者によるものです。販売者が商品をウェブサイトに掲載するには、非常に長いフォームに入力する必要がありました。このフォームがこれほど多くの項目を含む理由は、顧客が商品を簡単にナビゲートし、理解できるようにするためですが、販売者にとっては大変な作業でした。
そこで、このツールを生成AIを活用して完全に新しい形に再構築しました。現在では、販売者は数語を入力するだけでよく、写真を撮るか、URLを指し示すだけでもツールが多くの属性を自動的に埋めてくれるようになっています。これにより、販売者にとって作業が格段に簡単になりました。
現在、生成AIツールを利用している販売者は50万人を超えています。
在庫管理と予測精度の向上 (1:35:56)
また、在庫管理についても見てみましょう。私たちの小売事業における課題の規模を考えてみてください。私たちは1000以上の建物、または「ノード」と呼ばれる施設を運営しています。そして、すべての作業は、エンドユーザーの近くにあるフルフィルメントセンターや建物に適切な商品を配置することを最適化するように設計されています。これにより、配送時間を短縮し、商品をより早くお届けできると同時に、コストも削減できます。
そのため、特定の時点で以下のことを把握する必要があります。各フルフィルメントセンターにどのような商品があるのか、それぞれの商品の在庫レベルはどのくらいか、どの商品の注文がどの程度の頻度で発生しているのか、そのフルフィルメントセンターに余裕のあるスペースはあるのか、ネットワーク全体のバランスを取るために在庫を他のフルフィルメントセンターに移動する必要があるのか、などです。
これらの問題を解決し、予測を行うために、私たちはトランスフォーマーモデルを活用しています。すでに長期的な需要予測におけるトランスフォーマーモデルの精度は10%向上しました。また、地域ごとの予測精度も20%以上向上しました。
私たちの規模では、これらの向上は非常に大きな成果です。
ロボティクスにおける生成AIの活用 (1:36:47)
次にロボティクスについて考えてみましょう。私たちのフルフィルメントセンターには75万台以上のロボットが稼働しており、それぞれがさまざまなAIを活用しています。その中でも「スパロー」という再仕分けを行うロボットアームの例を挙げます。
私たちのフルフィルメントセンターの全体像を俯瞰すると、さまざまな異なる場所から商品を取り出し、それをコンテナに集約するという作業が常に行われています。これにより、利用可能なスペースや搬送能力を最適化しています。
スパローが行うのは、ある容器から商品を取り出して別の容器に集約することです。この際、スパローのジェネレーティブAIは次のようなことを行います。最初の容器に何が入っているかを把握し、どの商品をピックアップするべきかを判断します。その商品が何であるかを識別し、サイズや素材、柔軟性に応じてどのように掴むべきかを決定します。そして、それを受け取り側の容器のどこに配置すべきかを判断します。
これらはすべて、処理時間を短縮し、顧客にサービスを提供するコストを削減するために必要な重要な発明です。今年の数ヶ月前にルイジアナ州シュリーブポートのフルフィルメントセンターでこれらの最新ロボティクス発明を5つ導入しました。すでに処理時間が25%速くなり、ホリデーシーズン中のサービス提供コストが25%削減されると期待しています。
これらはすべて、コスト削減や生産性向上の具体例であり、Amazon内で実際に効果を上げています。
新しいショッピング体験の提供 (1:38:33)
BジェネレーティブAIを活用して新しいショッピング体験を生み出している例についてご紹介します。
まず、いくつかのエージェントの例から始めましょう。1つ目は、ショッピングエージェント「ルーファス」です。もし購入したいアイテムが明確であれば、Amazonでの購入が最適な体験だと言えるでしょう。素早く自宅に配送されます。しかし、何を買うべきかわからない場合、物理的な店舗で店員に相談するような体験を求める方もいます。店員は質問をして選択肢を絞り込んでくれ、必要な情報を提供してくれます。
ルーファスを使えば、この体験をさらに向上させることができます。ルーファスでは、商品詳細ページで多数の情報をスクロールする代わりに、質問を入力するだけで迅速に答えを得られます。また、ルーファスは商品やカテゴリを比較し、推奨事項を提示します。さらに、「いつも買っているゴルフグローブを探して」と頼めば、ルーファスはすぐに見つけてくれます。また、未配達アイテムの注文状況を確認することもできます。ルーファスは常にユーザーの意図や興味を理解し続け、より良い体験を提供します。
もう1つの例として、Alexaがあります。Alexaの目標は「世界最高のパーソナルアシスタント」を構築することです。当初は多くの人がその挑戦を疑問視しましたが、ジェネレーティブAIと大規模言語モデルの進展により、これが現実のものとなる可能性が見えてきました。Alexaは、販売したデバイスやエンドポイントを含め、5億以上のアクティブノードを持つまでに成長しました。現在、複数のファウンデーションモデルを統合する形でAlexaの脳を再構築しており、質問への回答精度が向上するだけでなく、ユーザーのニーズを予測し、行動を起こす能力を持つようになります。これらの新機能は、今後数ヶ月以内に公開される予定です。
また、新しいジェネレーティブAIの機能もいくつか紹介します。例えば、「Amazon Lens」という機能があります。友人の家で気に入ったプランターを見つけたとき、その写真を撮ってAmazon Lensにアップロードするだけで、コンピュータビジョンとマルチモーダルモデルが検索クエリを生成し、Amazonでの購入先を見つけてくれます。
他にも、サイズ選びを助ける機能があります。ブランドごとのサイズ感の違いを考慮した大規模言語モデルを使用し、購入履歴を元に適切なサイズを提案します。
Prime VideoではNFLとの深いパートナーシップの下、Next Gen Statsという機能を構築しました。毎シーズン5億ものデータポイントを収集し、それをAIモデルで分析することで、防御の脆弱性や選手の動きを予測し、視聴体験を変える新しい機能を提供しています。
これらは、Amazonが構築した、または構築中の約1000種類のジェネレーティブAIアプリケーションのほんの一例に過ぎません。この過程で多くのことを学んできました。
生成AIアプリケーション開発の課題と教訓 (1:44:40)
いくつか学んだことを共有したいと思います。ここでは3つに絞ってお話しします。
1つ目は、ジェネレーティブAIアプリケーションがスケールするにつれて、コンピュートコストが非常に重要になるということです。世界中で使われているジェネレーティブAIアプリケーションの多くは、主に1種類のチップを使って構築されています。しかし、人々はより良い価格性能比を求めており、それがマットが先ほど話していたTrainium 2が非常に注目されている理由です。
2つ目は、本当に優れたジェネレーティブAIアプリケーションを構築するのは非常に難しいということです。良いモデルが必要なのはもちろんですが、それだけでは不十分です。モデルに加えて、適切なガードレール、メッセージングの流暢さ、適切なUI、適切なレイテンシー(遅延のないスムーズな体験)、そして適切なコスト構造が必要です。多くの場合、優れたモデルを使用して少し作業をしただけで、良いアプリケーションができたと考えてしまいますが、実際には完成度の70%程度にしか達していません。顧客は30%の不完全なアプリケーションに寛容ではありません。
3つ目は、Amazon内部での構築作業を通じて、使用されるモデルの多様性に驚かされたということです。私たちは、ビルダーたちに自由にモデルを選択させましたが、ほとんどの人がAnthropicのClaudeモデルを使用すると思っていました。Claudeモデルは過去1年ほどの間で最も性能が良いモデルとされています。しかし、実際には、内部ビルダーの多くがClaudeモデルを使用している一方で、Llamaモデルや他のモデル、さらに独自に開発したモデルも使用されています。
このことは最初驚きでしたが、よく考えると驚くべきことではありません。同じ教訓を何度も繰り返し学んでいるからです。それは「1つのツールが世界を支配することはない」ということです。データベースの世界でも同様で、リレーショナルデータベースや非リレーショナルデータベースなど、多くの種類が使われています。分析の世界でも同じです。数年前にはTensorFlowが唯一のAIフレームワークになると考えられていましたが、実際にはPyTorchが最も人気のあるものとなりました。同じことがモデルにも当てはまります。
内部で多くのアプリケーションを構築していく中で、ビルダーたちがモデルチームに多くの要求をしていることに気づきました。より良いレイテンシー、低コスト、微調整の能力、異なるナレッジベースを活用してデータをより良く基盤化する能力、自動化された行動の実行(いわゆるエージェント的行動)、画像やビデオの改善など、さまざまな要望があります。このフィードバックはモデル提供パートナーに共有しており、彼らも受け入れていますが、やるべきことが多いです。
そのため、私たちは独自のフロンティアモデルの開発を続けてきました。これらのモデルは過去4~5ヶ月で大きな進歩を遂げており、私たちがそれから価値を見出しているなら、皆さんもきっと同じだろうと考えています。
Amazon Novaモデルの発表 (1:48:14)
私は、Amazon Novaの発表をお届けできることに興奮しています。これは、最先端の基盤モデルで、最前線のインテリジェンスと業界最高水準の価格性能を提供します。
[拍手]
このインテリジェントなモデルセットには4つのバリエーションがあります。 最初は「Micro」で、これはテキスト専用のモデルです。テキストを入力し、テキストを出力します。このモデルは非常に高速で、コスト効率が高く、内部ビルダーたちは多くの簡単なタスクにこれを楽しんで使用しています。 次に、3つのマルチモーダルモデルがあります。マルチモーダルモデルでは、テキスト、画像、またはビデオを入力し、テキストを出力できます。これらはサイズとインテリジェンスの順で「Micro Lite」「Pro」となり、「Premier」は第1四半期に利用可能になります。
いくつかのベンチマークを共有します。これらの結果は、可能な限り外部の公開されたベンチマークを使用し、それが利用できない場合は自社で実施しました。方法論はウェブサイトで公開していますので、再現することも可能です。
「Micro」モデルについては、LlamaやGoogle Geminiといった同クラスのリーディングモデルと比較して、すべての変数で優れたパフォーマンスを示しました。また、統計的有意性のテストを実施し、95%信頼区間で重複する数値は同等とみなしました。その結果、LlamaやGeminiに対してすべてのベンチマークで同等または優れた結果を示しています。 「Lite」モデルでは、OpenAIのGPT-4 Miniに対して19のベンチマーク中17で同等または優れた結果を示し、Geminiに対しては21のベンチマーク中17で同等または優れた結果を示しました。 「Pro」モデルについても同様で、GPT-4に対して20のベンチマーク中17で同等または優れた結果を示し、Geminiに対して21のベンチマーク中16で同等または優れた結果を示しています。
これらのモデルは非常に競争力がありますが、それ以上に魅力的なポイントがあります。 まず、コスト効率が非常に高く、他のリーディングモデルに比べて75%安価です。次に、非常に高速で、遅延に関しては最速のモデルです。また、これらのモデルはBedrockと深く統合されており、微調整、知識ベースの統合、エージェント的行動の自動化など、多くの機能をサポートしています。
さらに、テキスト出力だけでなく、画像やビデオに関連するニーズにも応える新しいモデルを発表します。これは広告やマーケティング、トレーディング資料などの用途で特に有用です。この分野には選択肢が少なく、コストが高いという課題がありますが、これを解決するための努力を重ねてきました。
画像および動画生成モデルの発表 (1:53:45)
最初にご紹介するのは、最先端の画像生成モデルである「Amazon Nova Canvas」です。
[拍手]
Canvasでは、自然言語テキストを入力し、スタジオ品質の美しい画像を生成できます。さらに、自然言語やテキスト入力を使用して画像を編集することも可能です。カラースキームやレイアウトに関する制御機能があり、AIの責任ある利用をサポートするために、透かし(ウォーターマーク)を含むトレーサビリティ機能や有害なコンテンツの生成を制限するコンテンツモデレーション機能も備えています。
また、ベンチマーク評価を行いました。今回、一般的にこの分野でリーダーと見なされるDALL-E 3とStable Diffusion 3.5を比較対象に選び、画像品質と指示に従った生成の精度という2つの主要な指標で評価しました。その結果、Canvasはこれら両方の指標で両者を上回る結果を示しました。さらに、人間による評価でも同様の結果が得られました。このモデルは非常に魅力的です。
次に、動画生成を簡単に行えるモデルをご紹介します。「Amazon Nova Reel」という、最先端の動画生成モデルのローンチを発表できることを嬉しく思います。
[拍手]
Reelでは、スタジオ品質の驚くべき動画を作成できます。カメラ操作の完全な制御、モーションコントロール、パンニング、360度回転、ズームといった機能を提供します。また、安全なAI利用を促進するために、透かし機能やコンテンツモデレーション機能も備えています。
最初は6秒間の動画を作成可能で、マーケティングや広告に非常に適しており、数か月以内に2分間の動画生成が可能になる予定です。これもベンチマーク評価を行いましたが、この分野でAPIを提供している動画生成サービスはほとんどなく、自動ベンチマークも存在しないため、リーダーの一つであるRunwayとの比較で人間による評価を行いました。その結果、Reelは他と比較して非常に良好な評価を得ました。
これで、合計6つの新しい最前線のモデルをご紹介しました。
今後のモデル開発計画とAWSのモデル戦略 (1:56:15)
今後のNovaの展望はどうなるのか、という点についてお話しします。まず、チームは来年中にこれらのモデルの第2世代を開発するために全力を尽くします。しかし、ここで少しだけ将来のプレビューをご紹介します。
まず、2025年の第1四半期には、スピーチ・トゥ・スピーチ(音声入力から音声出力)モデルを提供する予定です。このモデルは非常に流暢で、高速に動作します。
[拍手]
さらに、2025年の中頃には、任意のモード間での変換が可能な「エニー・トゥ・エニー」モデルを提供する予定です。これは本当の意味でのマルチモーダルからマルチモーダルへのモデルとなります。
[拍手]
このモデルでは、テキスト、音声、画像、動画を入力し、それらすべてを出力することが可能になります。これが、最前線のモデルが構築され、利用される未来の姿です。この機能を皆さんにお届けするのが楽しみです。
さて、ここで皆さんは「AWSのモデル戦略をどう捉えればいいのか」と疑問に思われるかもしれません。AWSは多数のモデルプロバイダーと非常に深いパートナーシップを持っており、いくつかは独自のモデルも開発しています。この点については、AWSが常に行っているように、すべての領域で最も幅広く、最も優れた機能性を提供する選択肢を皆さんに提供していくと考えてください。
つまり、選択肢を提供します。皆さんは状況に応じて異なる理由で異なるモデルを使うことになるでしょう。例えば、コーディングの最適化や数学、RAG(Retrieval Augmented Generation)との統合、エージェント型のニーズ、低遅延やコストの最適化など、目的に応じて異なるモデルが必要になります。そして多くの場合、それらの要素の組み合わせが求められるでしょう。AWSでは、常に最適な組み合わせを提供し続けます。
今日新たにいくつかの興味深いモデルを追加しましたが、それらすべてがBedrockで利用可能です。そして、どの組み合わせでも自由に実験し、時間とともに変更していくことができます。AWSは、今日もそして未来にも、皆さんに選択肢と自由を提供します。
それでは、どうぞお楽しみください。行動開始です。では、マットにお返しします。ありがとうございました。
[音楽]
Matt Garman (AWS) (1:59:09)
Amazon Q Developerの新機能と効率改善 (1:59:09)
素晴らしいプレゼンでしたね。ありがとう、アンディ。またre:Inventの場に戻ってきてくれて本当に楽しかったです。そして、Amazonが取り組んでいる多くのことや、Novaモデルについて共有できたのも楽しかったです。きっと多くの皆さんがこれらのNovaモデルを試すのを楽しみにしていることでしょう。
さて、AWSの目標は、すべての開発者が革新を追求できるよう支援することです。差別化されない煩雑な作業から解放し、創造的な部分に集中できるようにしたいのです。そして、生成AIはこの能力を大幅に加速させます。それにより、開発者は本当に重要な部分に集中でき、煩雑な作業を生成AIに任せることができます。
ところで、ここにいる皆さんの中で開発者の方はいらっしゃいますか?手を挙げてみてください。いますね。素晴らしい。今日はたくさんの開発者がここにいるので、開発者がどのように効率を高められるのかについて少しお話ししたいと思います。
昨年、私たちはAmazon Q Developerを導入しました。これはAWSの専門家であり、ソフトウェア開発における最も有能な生成AIアシスタントです。例えば、Dave Chappelleのような顧客は、Q Developerを使うことで最大70%の効率向上を実現しました。新しい機能のデプロイ時間を短縮し、タスクの完了を加速し、多くの繰り返し作業を削減しました。
しかし、これは単なる効率の問題ではありません。例えば、FINRAは、Q Developerを使用することでコード品質と整合性が驚異的に20%向上しました。これにより、パフォーマンスが向上し、より安全なソフトウェアを作成することができました。
当初の目標は、Q Developerを通じて優れたコーディングアシスタントを提供することでした。そして、その目標は達成しました。実際、Qは現在市場に出回っているマルチラインコーディングアシスタントの中で、最も高い受け入れ率を記録しています。
ただ、コーディングアシスタントは、ほとんどの開発者が必要とするもののほんの一部に過ぎないのです。私たちは開発者と話をしてみたところ、ほとんどの開発者が1日に平均してわずか1時間しかコーディングに時間を割いていないことがわかりました。それ以外の時間は、エンドツーエンドの開発タスクに費やされています。
そこで、私たちはその全体のサイクルを見直して、他に支援できる部分がないかを探しました。すると、開発者の時間を奪う多くのタスクが見つかりましたが、それらは開発者にとってあまり楽しくない部分です。例えば、ユニットテストの作成やコードレビューの管理などです。そして、私は以前、大規模な開発チームを率いていた経験がありますが、コードの優れたドキュメントを書くのが好きな開発者に会ったことがない気がします。
しかし、ドキュメント作成は重要です。あまり魅力的な作業ではありませんが、非常に重要です。手間がかかり、時間がかかるものの、欠かすことはできません。
Q Developerの新しい自律型エージェント (2:01:41)
時には、ドキュメント作成が適当になり、十分な品質が確保されないこともあります。そこで、今日はQ Developerの一部として、ユニットテスト、ドキュメント作成、コードレビューを支援する3つの新しい自律型エージェントを発表できることを本当にうれしく思います。これが、Q Autonomous Agentsです。
[拍手]
Qは、エンドツーエンドのユーザーテストを自動生成できるようになりました。ただ「/test」と入力すれば、Qがプロジェクト全体の知識を活用して、高度なエージェントを使い、完全なテストカバレッジを作成します。
2つ目のエージェントは、正確なドキュメントを自動で作成してくれます。興味深いのは、これは新しいコードだけに限らないことです。このQエージェントはレガシーコードにも適用できます。つまり、同僚があまり適切にドキュメント化していなかったコードベースに出くわした場合でも、Qがそのコードが何をしているのかを理解するのに役立つのです。
また、コードレビューを自動で実行する機能も追加されました。Qは脆弱性をスキャンし、疑わしいコーディングパターンをフラグとして示し、潜在的なオープンソースパッケージのリスクを特定することもできます。さらに興味深いのは、デプロイメントリスクを特定し、より安全なデプロイメントを実現するための緩和策を提案してくれることです。
これらのエージェントは、重要でありながら差別化されないこれらのタスクに費やされる時間を大幅に削減し、開発者が価値を生む活動により多くの時間を費やせるようにする可能性があります。
しかし、重要なのは機能だけではありません。Qにアクセスする場所も重要です。必要なときに必要な場所でQを利用できることが求められます。
Q DeveloperとGitLabの統合 (2:03:02)
そのため、Qをコンソールに追加しました。Slackでも利用でき、Visual Studio、VSCode、IntelliJなどの人気のIDEでも利用可能です。そして、今日からはQ DeveloperとGitLabの新しい深い統合を発表できることを非常に嬉しく思います。
[拍手]
この新しいパートナーシップにより、Q Developerの機能がGitLabの人気のあるプラットフォームに深く組み込まれ、GitLabのDuoアシスタントの多くの人気機能の一部をサポートすることになります。これにより、Q Developerの機能にアクセスでき、GitLabのワークフロー内でネイティブに利用できるようになります。今後、さらに多くの機能が追加されていく予定です。
このコンセプトは、Southwest AirlinesやMercedes-Benzのような数社の早期顧客とともに試験的に導入し、彼らからはAmazon、Q Developer、そしてGitLabを組み合わせたものに非常に興奮しているという声をいただきました。
しかし、開発者ライフサイクル全体をサポートするためには、新しいアプリケーションだけではなく、もっと多くのことを行う必要があります。
レガシーアプリケーションのモダナイゼーション (2:04:00)
ご存知のように、多くの開発時間は新しいアプリケーションの開発に使われるのではなく、既存のアプリケーションの管理に費やされています。実際、開発者の多くの時間は、既存アプリケーションの維持、モダナイゼーション、パッチ適用に費やされており、これには非常に多くの労力が必要です。例えば、レガシーアプリケーションのアップグレードは、巨大な複数ヶ月にわたる作業であり、多くの場合非常に複雑で、長期にわたることがあります。
Q Developerの最も強力な機能の1つは、すでにJavaバージョンのアップグレードの自動化です。この機能は、Javaアプリケーションを古いバージョンから新しいバージョンに、手動で行う場合に比べて非常に短い時間で変換することができます。これは開発者が好きではない作業ですが、非常に重要です。
今年初めに、Amazonはこの機能を自社の内部システムに統合しました。ここには多くの古いJavaコードがあり、Q Developerを使用してアップグレードする必要がありました。私たちは実際に、数万の本番アプリケーションをJava 17に移行しました。そして、それをほんの少しの時間で行いました。チームの推定によると、これにより4500年分の開発者の時間が節約されました。これは、アップグレードによって節約された膨大な時間の量であり、今、現代的なJavaアプリケーションを実行しているため、実際にはハードウェアも少なくて済みます。その結果、このプロセスを通じて年間2億6000万ドルの節約ができました。これを考えると、素晴らしいことだと思いました。
Windowsアプリケーションの移行支援 (2:05:30)
他にどんなことが私たちを変革できるのか、私はいつも顧客にどのように手助けできるか、そして彼らの最大の課題は何かを尋ねるのが好きです。その中で興味深いことが聞けることが多いのですが、その中でよく上がるのが「Windows」についてです。顧客はWindowsから脱却するための簡単な方法を求めています。彼らは、常に発生するセキュリティ問題やパッチの適用、スケーラビリティの課題、そして何よりも煩わしいライセンスコストに疲れています。
ただし、私たちは現在、Windowsからのモダナイゼーションが難しいことを認識しています。実際、Windowsからのモダナイゼーションは今日では簡単ではないので、嬉しいお知らせがあります。Q Developerを使ったWindows .NETアプリケーションの変革です。
[拍手]
Q Developerを使用すれば、Windowsからのモダナイゼーションが非常に簡単になります。Q Developerは、Windows上で動作している.NETアプリケーションをLinuxに変換する手助けをします。その過程で、Q Developerは自動的に互換性のない部分を発見し、変換計画を作成し、ソースコードをリファクタリングします。
そして、これを数百、さらには数千のアプリケーションに並行して行うことができます。Q Developerを使えば、手動で行うよりも.NETアプリケーションを4倍速くモダナイゼーションできることが分かっています。そして、良いニュースは、すべてのライセンスコストを節約することで40%のコスト削減ができることです。
ある顧客、Signature ITは、デジタルトランザクションの欧州のリーダー企業で、WindowsからLinuxへのレガシー.NETアプリケーションのモダナイゼーションに取り組んでいます。彼らはこの移行を6〜8ヶ月かかると見積もっていましたが、実際には数日で完了しました。このような時間の大幅な短縮はゲームチェンジャーです。本当に素晴らしいです。
しかし、Windowsだけがデータセンターでのモダナイゼーションを遅らせているわけではありません。実際、顧客と話す中で、彼らはデータセンターから完全に脱却したいというニーズが高まっています。Itau Unibanco、Experian、Booking.comなど、何千もの顧客が私たちと提携し、データセンターから完全に退出し、コストを削減し、インフラの運営ではなく、イノベーションに集中するようになりました。
VMwareワークロードの移行とクラウドネイティブ化 (2:07:43)
データセンターの完全な移行を見るのは素晴らしいことですが、今日、多くのオンプレミスのワークロードはVMware上で稼働していることを知っています。
実際、多くの顧客は、既存のVMwareワークロードの一部がVMware上で稼働し続けることに満足していますが、それらを自社のデータセンターではなく、クラウドに移行したいと考えています。
これらのワークロードに対して、先週、AWSでVMwareサブスクリプションを簡単に移行し、EC2上でネイティブにVMwareのVCFスタックを実行できる新しい「Elastic VMware Service」を発表しました。
しかし、多くのワークロードが現在VMware上で稼働しており、顧客はこれをクラウドネイティブサービスにモダナイズしたいと強く願っています。
VMwareは長い間データセンターに深く根付いています。これにより、長年の運用の中でアプリケーションが複雑に絡み合い、いわゆる「スパゲッティ状態」になっていることが多いです。
モダナイゼーションで最も難しい部分は、これらのアプリケーションの依存関係を特定することです。さらに、移行作業はエラーが発生しやすく、何かを移動すると、他の部分に影響を与える可能性があるため、非常にリスクが高いです。そして、もちろんライセンスコストも高額です。
そこで本日、VMwareワークロード向けの「Q Transformation」を発表します。
[拍手]
Qは、VMware上で稼働しているワークロードを簡単にモダナイズし、クラウドネイティブソリューションへ移行する手助けをします。この最大の価値は、Qが自動的にすべてのアプリケーション依存関係を特定し、移行計画を生成することです。これにより、移行にかかる時間が大幅に短縮され、リスクが大きく軽減されます。
さらに、Qはエージェントを起動して、オンプレミスのVMwareネットワーク構成をAWSの最新の環境に変換します。これにより、かつては数か月かかった作業が数時間から数週間で完了します。
さて、ここまででWindowsとVMwareに触れました。
メインフレーム移行の効率化 (2:09:39)
しかし、クラウドへの移行が最も困難な複雑なシステムが1つあります。それがメインフレームです。
実際、顧客に話を聞くと、メインフレームのモダナイゼーションを分析、文書化、計画するだけでも非常に大変で、多くの人が途中で諦めてしまうほどの負担だと言います。これはあまりにも難しく、圧倒されてしまうのです。しかし、Qはこれに対応できる能力を持っています。
本日、メインフレーム向けの「Q Transformation」を発表します。
[拍手]
Qには、この複雑なワークフローを効率化するためのさまざまなエージェントが搭載されています。コードの分析を行ったり、計画をサポートしたり、アプリケーションのリファクタリングを行ったりできます。さらに、先ほども触れましたが、多くのメインフレームコードはあまり文書化されていません。COBOLコードが何百万行も存在するものの、それが何をしているのか分からないというケースが非常に多いのです。
Qは、このレガシーコードをリアルタイムで文書化し、それが何をするものかを明確にすることができます。非常にクールで、どのアプリケーションをモダナイズするかを理解するのに役立ちます。
ほとんどの顧客は、メインフレームの移行には通常3~5年かかると見積もっています。しかし、3~5年のプロジェクトを計画するのはほぼ不可能です。そのため、多くの場合、プロジェクトは途中で中断してしまいます。
ただし、今では状況が変わりました。ここで「メインフレーム移行がワンクリックで完了します」と言えたら良かったのですが、まだそこまでには達していません。ただ、初期の顧客フィードバックや内部テストに基づくと、Qは従来のように数年かかる移行プロジェクトを数四半期で完了できる可能性があります。これは移行時間を50%以上短縮することを意味します。
数年単位の取り組みを数四半期に短縮できるのであれば、それは現実的で計画可能なものになります。顧客はこの取り組みに非常に興奮しています。
運用におけるQ Developerの活用 (2:11:21)
最後に触れていなかった開発サイクルの部分が運用です。運用は今日のソフトウェアサービスを運営する上で重要な部分であることは誰もが認識しています。
お客様からは、AWS環境を管理する際に、CloudWatchのグラフやログを解析しながら、AWS環境で何が起こっているのかを理解するために多くの時間を費やしているとお聞きします。
そこで本日、「Q Developer」の新機能を発表できることを嬉しく思います。QはAWS環境内の問題を調査するのを簡単にする能力を持ちました。
[拍手]
Qは、あなたの全環境を調べることができます。すべての設定、実行中のすべてを把握し、CloudWatchデータやCloudTrailログを解析します。そして、問題が発生している可能性のある場所を特定する手助けをします。AWS環境を深く理解し、異常を検出します。たとえば、「問題が発生している」と言えば、それをトレースして、変更された可能性のある壊れた権限のセットに辿り着き、それを修正する方法を提案します。さらに、次回同じ問題が発生しないようにするためのベストプラクティスも提案するかもしれません。
また、根本原因を特定したら、Qはあなたが提供するランブックやキュレーションされた文書から、適切な修正方法へのアクセスも提供します。CloudWatchは、多くの人気のあるインシデント管理やチケットシステムと統合されており、環境全体にわたるインシデント管理を支援します。
多くの人が使用しているであろうパートナーの一つとして、「PagerDuty」が挙げられます。PagerDutyは長年にわたりお客様が運用イベントを防止・解決する手助けをしてきました。AWSはその旅の全期間を通じてPagerDutyと提携してきたことを誇りに思います。
ここで、PagerDutyが将来のためにどのように革新し、AIのような新技術を取り入れているのかについてお話しいただくために、PagerDutyのCEOであるジェン・テハダさんをお迎えします。
ジェン、どうぞ。
[音楽][音楽]
Jennifer Tehada (PagerDuty) (2:13:17)
PagerDutyの紹介と役割 (2:13:17)
皆さん、調子はどうですか?
[拍手]
ありがとう、マット。ここに来られて本当に嬉しいです。では、「PagerDuty」とは何者か、まずはそこからお話ししましょう。そして、いいえ、私たちは「ポケベル」を作っているわけではありません。
通常、私はここでDevOpsの歴史や、責任とオーナーシップの文化について語り始めます。これがカクテルパーティーでの私の持ちネタですが、今日は説明不要の場ですね。
実際、ここにいる多くの方が現在PagerDutyを利用していると確信しています。それでも、「PagerDuty」を知っていると思っていても、本当に知っているとは限りません。
私たちは15年前、Amazonの3人のソフトウェアエンジニアによって設立されました。当時、彼らが解決しようとしていたのは、1つの痛みを伴う問題でした。それは、オンコールの自動化です。当時のDevOpsにおいては、これが最後の課題であり、スケーリングするための重要な一歩でした。
しかし、これは単なる第一歩に過ぎませんでした。今日においても、最も重要な問題に対して迅速かつ確実に適切な専門知識を調整することは非常に重要です。それは、顧客が満足するか、それとも数百万ドルの収益を失うかの違いを生む可能性があります。
PagerDuty Operations Cloudの概要 (2:14:15)
PagerDuty Operations Cloudは、クラウドに依存せず、独立し、技術エコシステムの中心的存在です。それは、デジタルオペレーションの「脳」のようなもので、700以上の業界トップクラスのアプリケーションと接続し、現代的なオペレーションのハブとして機能します。
私たちのAIを第一に考えた製品群は、開発者を手作業の負担から解放します。このプラットフォームにより、チームはイベントを自動検知し、ノイズをフィルタリングし、人間、機械、そしてますます多くのエージェント間で解決をインテリジェントに調整することで、より速く革新を進められます。
私たちは約10年にわたり、AWS、AI、自動化を活用して、スケールに応じた回復力とセキュリティを提供してきました。私たちのSLA(サービスレベルアグリーメント)はアプリの可用性を超え、データ転送にも対応しており、メンテナンスウィンドウを一度も設けたことがありません。
インシデント管理とオペレーション全般は、時間が重要で、構造化されておらず、ミッションクリティカルな分野です。これにより、AIと自動化にとって理想的な領域となっています。
この洞察をオペレーションに応用し、PagerDutyの各インタラクションを賢明な意思決定、迅速な解決、そしてより強靭なサービスを提供する機会へと変えました。これにより、「シフトレフト」を進めるだけでなく、オペレーション成熟度曲線の右側にスケールアップすることも可能です。
私たちの基盤となるデータモデルは、数十億件のイベントと数百万件のインシデントワークフローを取り込み、15年にわたる対応者へのサービス提供経験に支えられています。このモデルは、高コストで煩雑な作業をあなたの手から解放します。
現在、フォーチュン100の3分の2以上、フォーチュン500の半数以上がPagerDutyを信頼し、多くの革新的な生成AIネイティブも利用しています。スケールに応じた信頼性、精度、セキュリティへの取り組みにより、15,000以上の顧客、そしてそのうち約6,000の顧客をAWSと共有しています。
子供の頃、父は「賢くパートナーを選べ」とアドバイスしてくれました。結局のところ、私たちは周囲の人々の影響を受けた存在なのです。PagerDutyをAWS上で構築し、AWSとともに共同革新を進めることは、これまでで最良のビジネス決定の1つでした。その理由の1つは、AWSコミュニティが私たちのコミュニティでもあることです。あなた方は、私たちのような人々です。
PagerDutyとAWSの連携 (2:16:12)
AWSとともに、高可用性とレジリエンスを実現しながら、効率性や効果性を犠牲にすることなく運用を行い、スケールアップする中で80%を超える高い粗利益率を維持しています。 また、Amazon S3、EventBridge、Lambdaといった多くのAWSの構成要素の助けを借りて実現してきました。そのため、AWSと連携し、生成AIを活用してレジリエントなインフラとアプリケーションをさらに強化するのは自然な流れでした。 その仕組みをご紹介します。
たとえば、あなたがグローバルバンク向けの消費者アプリを構築していると想像してください。 日曜日の夜遅く、PagerDutyからアラートが届きます。顧客がログインの問題を報告しています。 さらに、マネージャーからその問題がソーシャルメディアで拡散している写真が送られてきます。 経験上、これがすぐに混乱に発展する可能性があることを知っています。 複数のSlackスレッド、メール、電話、多すぎる人数がブリッジに参加し、異なる大陸にまたがる複数の「戦争会議室」が発生します。 何時間にもわたるストレス、試行錯誤、そして眠れぬ夜が待っています。
PagerDuty Advanceによるインシデント管理 (2:17:37)
多くの人がこうした状況を経験したことがあると思いますが、PagerDuty Operations Cloudを使用すれば、状況は異なります。 統合されたSlackチャットを1つ開き、少数の専門チームと連携します。 PagerDuty Advanceは、Amazon BedrockとAnthropic Claudeを使用して構築された生成AIアシスタントで、「顧客への影響は何か?」「何が変更されたのか?」といった診断の質問に答えます。 PagerDuty Operations Cloudは、クラウドアプリケーション、インフラストラクチャ、セキュリティイベントを含むあらゆる種類のテレメトリにリアルタイムで可視性を提供し、第三者によるルーチンのアップデートが原因の可能性が高いことを瞬時に特定します。
しかし、ここで終わりではありません。 PagerDuty Advanceは、最適な次の手順を積極的に提案します。 ボタンをクリックするだけで、自動化されたランブックを展開し、アップデートをロールバックしてサービスを復元します。数秒でこれが完了します。 さらに、このAIアシスタントは、社内外の関係者に状況を伝えるための、エグゼクティブ向けのステータスアップデート案を作成し、時間が重要なときに時間を節約します。 カスタマーサービスチームも連携し、Salesforce環境内でPagerDutyと連携しながらフォローアップや対応が可能です。顧客には問題が解決したことが自動的に通知されます。
これで顧客はログインできるようになりましたが、銀行口座を確認すると、多くの顧客が「残高がゼロ」になっていることに驚きます。 これは当初の想定よりも複雑な問題であることが明らかで、さらに多くのコンテキストが必要です。そして、時間が限られていることも明白です。
率直に言って、数字も味方してくれません。 重大なインシデントは昨年比で43%増加しており、平均で100万ドル近くの損失が発生しています。 このため、適切な人材や情報を探したり、メールを送ったり、チケットを発行したりする時間はありません。 一方で、サポートケースは急増しており、上司からはコンプライアンスや契約上の義務についてのメッセージが再び届きます。 そして、この問題がニュースで取り上げられます。 顧客の忠誠心、評判、さらには会社の営業権までもが危機に瀕しています。 優先度の高いインシデントは、分散した開発チームやさまざまな内部およびサードパーティのアプリケーションやインフラストラクチャサービスに影響を与えることが多く、問題を解決するための適切なリソースを見つけるのに非常に時間がかかります。
PagerDuty AdvanceとAmazon Qの統合 (2:19:34)
そのため、私たちは本日、PagerDuty AdvanceとAmazon Qの初の統合による力を発表できることを誇りに思います。
[拍手]
PagerDuty AdvanceがAmazon Qと統合されることで、必要なすべてが手元で利用可能になります。 影響因子の特定から診断まで、必要な瞬間に安全でセキュアな環境で共有されるデータを利用できます。
BedrockとClaudeの上に構築され、Qに統合されたPagerDuty Advanceの統一ユーザーエクスペリエンスにより、インシデントに費やす時間が減少し、開発により多くの時間を割けるようになります。 信頼は何年にもわたって築かれるものですが、失うのはほんの数秒です。
責任あるAI利用とPagerDutyの取り組み (2:20:45)
生成AIと自動化は強力な加速要因ですが、私たちは安全策も必要です。だからこそ、PagerDutyはAmazon Bedrock Guardrailsを活用しています。 Guardrailsは幻覚的な誤動作を防ぎ、望ましくないトピックをブロックし、有害なコンテンツを最小限に抑える役割を果たします。
また、AIやエージェントによって引き起こされたインシデントを管理するのを支援するだけでなく、責任あるAIポリシーを強化するお手伝いも可能です。 AIの可能性は否定できません。 変革には機会と責任が伴います。AWSとPagerDutyは、革新的な方法でAIを活用しながら、ここまでの道のりで培った信頼、スケーラビリティ、信頼性を忘れません。
私たちは共に、より安全で、より強靭で、明るい未来への道を切り開いています。 ありがとうございました。
[拍手][音楽]
Matt Garman (AWS) (2:21:56)
ジェンのプレゼンへの感謝とQ Businessの紹介 (2:21:56)
ありがとうございます、ジェン。PagerDutyがあることで、夜ぐっすり眠れる開発者が多くいることでしょう。 さて、これまで開発者をどのように支援できるかについて多く語ってきましたが、実は生成AIの恩恵を受けられるのは開発者だけではありません。
Q Businessの機能と活用事例 (2:22:11)
私たちは、企業内の他の職種、たとえば財務、営業、運用などの効率性を向上させることも可能だと考えました。そのために、反復的で時間のかかる、正直言って満足感のないタスクを自動化することを支援したいと思いました。 こうしたさまざまな役割について話を聞くと、共通する問題として「データを探すのに多くの時間を費やしている」という点が挙がりました。意思決定のためにデータを見つけたいのに、それがさまざまなアプリに散らばっていて行ったり来たりしなければならず、すべてをまとめるのが非常に難しいというのです。 これが、私たちが Q Business を立ち上げた理由です。
Q は、企業の内部データを活用しタスクを加速させる、最も優れた生成AIアシスタントです。 Q は、AWSからのデータ、サードパーティアプリからのデータ、社内のWikiのような内部ソースからのデータなど、企業のさまざまなビジネスシステムやデータソースを接続します。そしてこれらすべてのデータを利用して、より良い検索やデータの要約を実現します。また、異なるデータサイロにまたがるエンタープライズデータと対話することも可能にします。すべてがセキュリティとプライバシーを重視して行われます。データに関する権限設定は、外部と同様に Q 内でも維持されます。 NASDAQ、Principal Financial、Accenture のような顧客は、生成AIを活用して社員の生産性を大幅に向上させるために Q Business を利用しています。
Q Business の強みは、すべてのエンタープライズデータをインデックス化するところにあります。このインデックスには、Adobe、Atlassian、Microsoft Office、SharePoint、Gmail、Salesforce、ServiceNow などからのデータが含まれます。そして Q は、このインデックスを常に最新の状態に保ち、高度にセキュアに管理します。データへのアクセス権限がない場合、Q 内でもそのデータにアクセスできないようになっています。すべてが制御され、コンプライアンスを守っています。
これらのストレージやアプリ、生産性ツール、企業のナレッジベースをすべて統合することで、これまでにない方法でこれを実現しています。また、対応可能なデータタイプを急速に拡張しており、メタデータや新しいファイル形式(たとえば音声や画像)などの新しい情報も統合しています(これらは近々対応予定です)。 しかし、それだけではありません。生産性ツールやSaaSアプリからのデータを統合するだけでなく、多くの企業が今日保有する構造化データにも対応しています。これらの構造化データは、多くの場合、データベースやデータウェアハウスに格納されています。
現時点では、この情報の大部分はビジネスインテリジェンス(BI)システムを通じてアクセスされています。現在、10万を超える顧客が QuickSight を使用して分析ニーズに対応しています。QuickSight のインタラクティブなダッシュボード、ピクセルパーフェクトのレポート、埋め込み型の分析機能を活用しています。昨年、私たちは QuickSight に Q を統合し、生成AIを活用した迅速なインサイトを簡単に得られるようにしました。これにより、データについて直接質問し、グラフや情報を得ることが可能になりました。
では、これをすべて統合できたらどうなるでしょうか?BI システム内の情報、構造化データストアの情報、そして Q インデックスに格納されたドキュメント、購入注文書、メールの情報をすべて一体化できたとしたら、より良い意思決定が可能になるでしょう。
Quicksightとの統合とデータ活用の強化 (2:25:00)
そこで本日、QuickSight Q と Q Business のデータを一体化することを発表できることを大変嬉しく思います。
[拍手]
では、具体的にこれが何を意味するのかご説明します。たとえば、QuickSight のダッシュボードを見ているとします。これは、売上を表示する QuickSight ダッシュボードだとしましょう。それは非常に興味深く、役に立ちます。そして、自社の売上の状況を確認することができます。しかし、もしかしたら、売上パイプラインからの情報も追加したいと思うかもしれません。 さらに、先週行った月次業務レビューを振り返りたくなるかもしれません。そのとき、チームが業界の興味深いトレンドについて話していた内容を参照したくなるでしょう。
QuickSight と Q Business を使えば、Salesforce のパイプラインデータを QuickSight のレポートに取り込むことができます。Adobe Experience Manager の最新のメールキャンペーン情報を引き出したり、SharePoint から最後の業務レビューを取り込んだりすることもできます。そして Q がそれらすべてのデータをまとめて要約し、1つのビューで表示します。 すべてが QuickSight 内で行われ、QuickSight を単なる BI ツール以上に強力なものにします。他のエンタープライズデータソースから情報を引き出すことで、QuickSight がさらに強力になります。
これを実現した際、私たちはこう考えました。この Q インデックスは、企業にとって非常に強力なコンセプトではないかと。このインデックスは、企業のすべてのデータソースの標準的なデータソースとして機能します。そして、Q があることで、理論上、QuickSight のような他のアプリケーションもより強力になります。他のデータソースを取り込むことで、それらのアプリケーションからより多くの価値を引き出すことができるのです。
また、このインデックスは AWS によって管理されているため、データに対する詳細な制御が可能であることについて深く考慮されています。そのため、許可なくそのデータにアクセスすることはできません。そして、適切な人だけが適切なデータセットにアクセスできるようになっています。
そこで私たちはさらに考えました。なぜ AWS アプリケーションに限る必要があるのでしょうか? 私たちはいくつかの顧客や ISV パートナーに話を持ちかけ、「QuickSight に提供したのと同じ Q インデックスへのアクセスを提供できたらどうなるでしょう?」と尋ねました。その瞬間、彼らの目が輝くのがわかりました。 彼らは、サードパーティアプリケーションやアプリケーション開発者がその顧客に提供できる価値が非常に大きいことをすぐに理解したのです。さまざまなデータソースを取り込むことができれば、非常に大きな価値をもたらせることを感じ取っていました。
Q IndexのAPI提供とISVとの連携 (2:27:23)
そこで本日、Q Business で使用している Q インデックスに ISV がアクセスできる新しい API セットを発表できることを嬉しく思います。
[拍手]
これが皆さんにとって意味するのは、Q Business を使用することで、他のすべてのアプリケーションも向上する可能性が生まれるということです。この新しい機能には、詳細な権限設定が備わっており、サードパーティアプリケーションがいつアクセスできるかを制御できます。そして、アクセスが許可されると、それらのアプリケーションはより強力で有用なものとなります。ISV アプリはよりパーソナライズされ、強力になります。
これにより、時間とコストを節約できます。また、もしデータへのアクセスを他の ISV に許可した場合、許可の管理を各 ISV に任せる必要がなくなります。AWS がその部分をカバーしていることを知っているので、必要なときにセキュリティが確保されているのです。
Asana、Miro、PagerDuty(先ほどご覧いただいた通り)、Smartsheet、Zoom などの企業が、この Q インデックスへの統合を既に進めています。では、これがどのように見えるか、少し見てみましょう。
Q Appsによるタスク自動化の可能性 (2:28:25)
例えば、Asana を見てみましょう。Asana はワークマネジメントソフトウェアのプロバイダーです。彼らは Q インデックスと統合し、他のアプリケーションからのコンテンツをプロジェクト管理アプリケーション内で表示できるようにしました。
仮にあなたが IT リーダーで、Asana を使って新しいツールを構築しているとしましょう。しかし、残念ながらプロジェクトが予定通り進んでいないことがわかります。この場合、Asana の AI は Q インデックスを活用して問題を特定します。
具体的には、チームのチャット記録を参照し、CTO からの確定したタイムラインがないことを発見します。また、未読の Gmail メッセージから、このプロジェクトに関連する意思決定を行う予定だった重要な会議が来週に延期されたことが分かりました。その結果、プロジェクトが遅れているのです。
このように、統合された情報を活用することで、どこに時間を集中させるべきかがわかり、プロジェクトを軌道に戻すための行動を取ることができます。とてもクールですよね。
また、今年、Q に新しい機能「Q Apps」を導入しました。Q Apps を使えば、日常の作業を少しだけ楽にする小さなタスクを簡単に自動化できます。やることは、Q Apps に入り、自然言語で必要なアプリを説明するだけです。それですぐにアプリが生成されます。
ただし、これらは大規模なアプリケーション、例えば Asana や PagerDuty のようなものを作るためのものではありません。日々の作業で15分を節約できるような、小さなアプリを作るためのものです。
例えば、ソーシャルメディアマーケターの場合、異なるサイトのテキスト制限やオーディエンスの好みに合わせてコピーを調整する簡単なアプリを作成できます。通常、複数のウェブサイトに合わせて何度もコピーを考え直す必要がありますが、このアプリを使えば一度入力するだけで、全ての異なるコピーが自動生成されます。シンプルなアプリですが、大量の時間を節約できます。そして、それを毎日繰り返し使用すれば、その節約はどんどん積み上がっていきます。
お客様がこうしたアプリを何百、何千と作成する例をよく目にします。時には、それが大きな影響を与えることもあります。
Volkswagen では現在、新しい空気情報システムへのアップグレードを進めています。大企業でよくあるように、北米だけで 4000 を超える異なるジョブコードがあり、それを数十の標準化されたジョブコードに統一しようとしていました。チームの誰かがこの作業を支援する Q App を作成しました。このアプリが非常に役立ったため、チーム全体に展開されました。
その結果、この機能を活用することで、世界中で 10 万時間以上を節約できるようになりました。信じられない成果ですね。このアプリは、デスクトップで 5 ~ 10 分程度で作成されたものでした。
Q がこれらの単純なワークフローを自動化できるのであれば、複雑なワークフローにも役立てることができるのではないかと考えました。どの企業にも、本当に複雑なワークフローが存在します。それらのワークフローは複数のアプリケーションを伴い、承認プロセスや手動入力を含むため、自動化が非常に困難です。
実際、この種のワークフローを自動化しようとする試みは長い間続けられてきましたが、非常に難しいものでした。通常、これらには人間の関与が必要で、UI が壊れるとワークフロー全体が停止し、修復のために数週間が無駄になります。これらのシステムは脆弱で、本当にうまく機能しないことが多く、構築には莫大な費用がかかります。
しかし、Q にはより良い方法があります。
Q Business Automateの発表 (2:31:47)
しかし、間もなくリリース予定の Q Business Automate が、複数のチームやアプリケーションにまたがるタスクの自動化をサポートすることを発表できるのは非常に嬉しいです。
[拍手]
具体的には、Q Business は一連の高度なエージェントを使用してワークフローを作成、編集、維持します。これにより、変更に対してより柔軟性を持つようになり、全てを自動的に行います。
例えば、自動車保険請求プロセスの複雑なワークフローを自動化したいと Q Business に指示するとします。この場合、標準操作手順(SOP)を伝えるだけで完了します。さらに、ブラウザのプラグインをインストールして、手動で手順を入力する際の動画を記録するように設定することも可能です。この動画を元に、自動的にワークフローを作成します。その際、理解できない部分についていくつか質問するだけで、ワークフローが完成します。
この自動化されたワークフローを起動すると、Q のエージェントが継続的に監視を行い、UI の変更を見つけた場合には即座に調整し、ダウンタイムを防ぎます。
これまでなら数週間から数ヶ月かかっていた作業が、わずか数分で完了するようになります。私たちは、Q Business がこの種の煩雑なタスクを自動化することで、時間を大幅に節約する手助けをするだけでなく、より多くの影響力を発揮する可能性があると考えています。
それでは、AWS 上で構築され、オートメーションを新しい次元に引き上げているスタートアップ企業についてお聞きください。
[音楽]
Brad Porter (cobot) (動画) (2:33:10)
私たちは、ロボットには共感性や双方向のやり取りが欠けているという固定観念を持っています。しかし、それが必ずしもそうである必要はないと思います。
[音楽]
私たちコールは、ロボットがあらゆる分野で役立つ未来を見ています。
[音楽]
ロボットは非常に予測可能な動作をしなければなりません。センサー、認識、ソフトウェアがすべてクラウドから物理的なホイールの作動に至るまで接続されています。
[音楽]
Proxy は、ボックス、トートバッグ、カートなど、最大1,500ポンドのカートを移動させるような物質移動タスクを担うよう設計されています。それでいて、このロボットは親しみやすい存在です。産業用機械でもフォークリフトでもありません。
AIや大規模言語モデルの進歩により、より共感的なやり取りが可能になりました。最初は、異なるモデルをどのように簡単に組み合わせて利用するかを考えていませんでした。
[音楽]
しかし、AWS はそれを先回りして考えてくれました。AWS の Bedrock は、その洞察力で、すべてが一つのソースから提供されるわけではないことを見越していました。
[音楽]
これらのモデルが更新されるたびに、それをほぼ即座に利用してロボットを改善することができます。技術者として、発明家として、私たちは未来がどのようになるかを決める力を持っています。
AI は認知作業の性質を変えるだけでなく、物理的な作業のあり方も変えるでしょう。
[音楽]
Matt Garman (AWS) (2:34:37)
AWSのアナリティクスサービスの紹介 (2:34:37)
素晴らしいですね、ブラッド。あのロボットは本当に驚くべきものです。シェアしていただき、ありがとうございます。
さて、今日はまだ触れていない分野があります。それは、AWSにおける分析です。AWSでは、特定の目的に特化した最も幅広く、最も深い分析サービスのセットを提供しています。
データウェアハウス、データ処理、検索分析、ストリーミング分析、ビジネスインテリジェンスなど、さまざまなサービスがあります。その中のいくつかを紹介すると、Redshift はクラウドネイティブなデータウェアハウスで、業界をリードする価格性能を提供しています。現在、数万社の顧客が使用しており、毎日エクサバイト規模のデータを処理しています。
EMRは、ペタバイト規模のビッグデータ処理サービスで、オープンソースのSparkに比べて3.9倍の性能を発揮します。OpenSearchは、ログ分析からベクター検索までをカバーする非常に柔軟なサービスで、現在数万のアクティブ顧客が使用しており、数十万のクラスターをサポートし、毎月数兆のリクエストを処理しています。
AWS Glue は、サーバーレスのデータ統合サービスで、毎月数億件のデータ統合ジョブを実行しています。また、ますます多くの顧客が分析ワークフローをSageMakerで開始するようになっています。
JPMCのロリーもこれについて言及していましたが、多くの顧客が機械学習(ML)ワークロードのためにデータを処理・準備し、MLベースの分析を行うためにSageMakerを使用しているのを目にしています。
顧客のデータ活用とAI/アナリティクスの統合 (2:36:02)
そして実際、この最後のポイントは非常に興味深いものです。多くの顧客が、分析ワークロードとAIワークロードが同じデータやワークフローを中心に次第に収束していると話しています。この変化は、顧客が分析サービスをどのように考えるかに影響を与えています。単に分析ツールとAIツールを個別に使用するだけではなくなったのです。
実際、多くの顧客が過去の分析データを使用して機械学習モデルを訓練し、さらにそのデータを生成型AIアプリケーションに組み込むようになっています。すでにこれらのサービスを一緒に利用している人が多いのです。
最近話をした金融サービスの顧客は、リアルタイムの不正検出システムを構築していました。彼らのアーキテクチャを説明してくれたのですが、こう言っていました。「私たちはまず独自のデータカタログを使い、アナリストが必要なデータにアクセスできるようにしています。そのデータをRedshiftにロードし、データウェアハウスとして保存します。そして、そのデータの上でSQL分析を実行します。その後、SageMakerとEMRを使ってそのデータをデータサイエンティストに渡し、トレーニングデータを準備して、不正検出システムのモデルをトレーニングし、デプロイします。」
これは非常にクールなシステムです。そして、クラウドシステムがなければ達成できなかった結果です。それぞれのステップで最適なツールを使用できるからこそ、可能になったのです。
しかし、この例や他の例を考えながら、「これをさらに簡単にするにはどうすればいいだろう?」と考えました。白紙の状態から始めた場合、理想的なAIと分析システムはどのようなものになるのでしょうか?
ここでは必要な機能の4つのリングを考えます。最高の分析サービスがすべて揃っていること、S3、Redshift、Aurora、そしてサードパーティのデータソースを含む構造化データや非構造化データを簡単に理解できる方法が必要です。また、データ管理機能を活用することも重要です。DataZoneを使用してカタログ化、カタログ共有、データガバナンスを行うことができる必要があります。そして、AIをすべての中心に置く必要があります。これらを統合した体験に引き寄せる「第5のリング」が必要なのです。
現在、SageMakerは、MLモデルの構築、トレーニング、デプロイを行うための世界で最も人気のあるサービスです。先ほど話したように、優れたAIアプリケーションを構築する鍵は、自社のデータでそれらをカスタマイズすることにあります。そしてSageMakerは、今日、多くの顧客がそれを実現する中心的な方法となっています。
さらに、SageMakerはデータ、AI、データ分析の中心でもあります。実際、顧客がデータとAIモデルを一緒に扱う方法として事実上の標準となっています。すでに数十万の顧客がSageMakerを使用しています。これらの要素をすべてまとめ、Amazon SageMakerの次世代版を発表できることをとても嬉しく思います。
[拍手]
次世代Amazon SageMakerの発表 (2:39:12)
SageMakerは今や、すべてのデータ分析とAIニーズの中心となります。私たちは、皆さんがよく知り、愛用しているSageMakerをさらに拡張し、最も包括的なデータ分析とAIツールを統合しています。
これにより、高速な分析、データ処理、検索、データ準備、AIモデル開発、生成型AIを含むすべての機能が、企業データを一元的に表示する単一のビューで利用可能になります。
この一環として、SageMaker Unified Studioの発表をお知らせします。
[拍手]
SageMaker Unified Studioの紹介 (2:39:47)
これは、組織内のすべてのデータにアクセスし、タスクに最適なツールを使用してそれを活用できる、単一のデータとAIの開発環境です。本日プレビュー版が利用可能となりました。
この環境は、現在AWSで利用可能なEMR、Glue、Redshift、Bedrock、既存のSageMaker Studio機能などの、さまざまな独立したスタジオやクエリエディタ、視覚化ツールを統合しています。これにより、アナリストやデータサイエンティストが、ノートブックやモデルなどのAIまたは分析アーティファクトを含む共有プロジェクトを作成し、データサイエンティスト、アナリスト、ML専門家が同じ統合されたスペースで簡単にコラボレーションできるようになります。
また、統合されたデータカタログとガバナンス機能も備えており、セキュリティ制御を簡単に適用できる方法を提供します。これにより、組織全体のさまざまなユーザーが必要なアーティファクトにアクセスできる一方で、許可されたものだけにアクセスすることが保証されます。
では、これをどのように実現するのでしょうか?まず、既存のデータサイロを解消する必要がありました。そして、これは数年にわたる取り組みの成果です。
私たちは「ゼロETL」の未来を目指して進化を続けてきました。この瞬間を念頭に置き、Aurora、RDS、DynamoDB、Redshift間のすべてのデータを統合しています。ただし、これまでに述べたように、多くの重要なデータは強力なサードパーティアプリケーション内に存在しており、これがデータを統合して利用することを難しくしていました。
Zero-ETLアプローチとアプリケーションへの適用 (2:40:48)
その作業をさらに簡単にするため、私たちは「アプリケーション向けゼロETL」を導入します。この新機能により、最も人気のあるサードパーティSaaSアプリケーションに保存されているデータを分析することが可能になります。これにはデータパイプラインの構築や管理は不要です。
[拍手]
顧客はこのすべてのデータを使って分析を行いたいと考えています。そして、今日発表したように、新しいS3のIceberg機能を利用することで、S3データレイクのクエリがこれまで以上に簡単になります。
ただし、Redshiftや構造化データソース、S3データレイク、その他のフェデレーションデータソースにまたがるすべてのデータに対して、統一されたインターフェースを必要としています。
SageMaker Lakehouseの発表 (2:41:47)
そこで、本日、Amazon SageMaker Lakehouse「Neha」を発表できることを大変嬉しく思います。
[拍手]
これは、Apache Iceberg互換の新しいレイクハウスで、SageMaker内で利用可能です。このLakehouseは、すべてのデータソースに対してシンプルで統一されたアクセスを提供します。統合されたスタジオ内で簡単にデータを操作できるほか、Apache Iceberg APIをサポートする任意のサードパーティAIまたは分析ツールやクエリエンジンから直接SageMaker Lakehouseにアクセスすることも可能です。
データが物理的にどこに保存されていても、それがどのように保存されていても、クエリを実行できます。分析やアドホックなクエリ処理、データサイエンスなど、すべてのユースケースに対して一貫したインターフェースを提供します。
そしてご安心ください。これまで皆さんが使い慣れたSageMakerのAI機能はそのまま利用可能です。データラングリング、人間の介入を必要とするプロセス(Human-in-the-Loop)、GroundTruth、実験、MLOps、そしてもちろんHyperPodによる分散トレーニング管理などの機能が引き続き提供されます。
これらを「SageMaker AI」と呼び、今週中に発表される多数の新機能についても耳にする機会があるでしょう。
統合体験による活用例 (2:42:44)
では、すべてをまとめてみましょう。最初に挙げた不正検出のユースケースを覚えていますか?新しい統合スタジオとSageMakerを使用して、どのようにその体験を向上させることができるか見てみましょう。
今や、アナリストやデータサイエンティストは、統合されたビジネスデータカタログにアクセスできます。これにより、彼らはユースケースに必要な関連データを検索することができます。この例では、データアナリストがトランザクションを検索し、そのデータの詳細を確認してプロジェクトに追加できるとしましょう。
次に、統合UI内にネイティブに含まれるクエリエディターを開くことができます。このクエリエディターを使用すると、RedshiftやAthenaに対してSQLクエリを作成し、SageMakerを離れることなく実行できます。そして、このデータセットをチーム内のデータサイエンティストに簡単に共有して作業を続けることができます。
これらのチームは、このプロジェクトで共同作業を行い、その後データサイエンティストがデータの処理と準備を開始します。Sparkを使用し、機械学習モデルをトレーニングして、不正を検出し、それらをSageMaker AIを使ってデプロイすることができます。
すべてが単一のノートブックから実行可能で、統合されたスタジオ内で一貫して動作します。これが、新しいSageMakerで可能になるシームレスな体験です。
今後のSageMakerの展望 (2:44:10)
そして、これからが本当の始まりです。
来年にかけて、新しいSageMakerにはさらに多くの機能が追加されます。AutoML、ローコード体験の新機能、専門的なAIサービスとの統合、ストリーム処理や検索、そしてZero-ETLでより多くのサービスやデータへのアクセスが、すべてこの単一の統合UIで可能になります。
そして何よりも重要なのは、今日から始められるということです。SageMakerにサインインするだけで、すぐに構築を始めることができます。
さあ、始めましょう。
まとめとイノベーションへの期待 (2:44:42)
今日は非常に多くの内容をお伝えしました。最高のビルディングブロックから、あなたの仕事や成果を倍増させるアプリケーションまで、すべてのデータを必要な形で扱いやすくするためのものを取り上げました。
私たちはこれまで以上の速さで革新を進め、お客様が想像するものを何でも構築できるよう、必要なすべてを提供してきました。そして、私は今日ほど未来に興奮していることはありません。
今、私たちは重要な転換点にいます。世界中で見られるイノベーションの量は本当に驚くべきもので、これはAWSから生まれるイノベーションに限った話ではありません。私は、今日紹介した素晴らしいスタートアップ企業をはじめ、お客様、パートナー、企業からのイノベーションに本当にワクワクしています。
今ほどイノベーションに最適な時期はありません。そして、これを可能にする豊富で強力なツールセットにアクセスできる機会も、かつてないほど充実しています。
今週のRe:Inventでは、ここにいる皆さんから多くを学ぶ機会をぜひ活用してください。素晴らしいコンテンツと学ぶべき多くの人々がここにいます。
本当にありがとうございました。それではRe:Inventをお楽しみください!
[音楽]