本日も、ネットに流れるトピックから個人的に興味を引かれたものを拾っていきます。
reInventがあったので、それ関連の話題が多めです。あとアルトマンがGoogleのAI分野の持ち直しに対して、過剰に反応しているのが面白かったです。
この記事への感想等コメントで頂けるとありがたいです。
プログラミング
Go言語
CVE-2025-61727で報告された、crypto/x509での脆弱性に対する対策です。
Rust
この記事は、Goのgoroutineの仕組みを理解するために、そのようなランタイムをRustで自作してみた自由研究の内容を紹介している。
OSスレッドがコンテキストスイッチや大きなスタックにより「重い」ことを実験で確認し、ユーザー空間でCPUコンテキストとスタックを保存・復元するグリーンスレッド(M:1モデル)をRustとインラインアセンブリで実装し、10万タスクを高速かつ低メモリで動かしている。
さらに、複数OSスレッドでタスクを処理するM:Nモデルを実装してCPUバウンド処理で約3倍高速化できることを示しつつ、ブロッキングI/Oでは依然としてOSスレッドが止まる問題を指摘し、本物のGoランタイムはepoll/kqueueを用いたnetwork poller、G-M-Pモデル、work stealing、スタック伸長、非協調的プリエンプションなどを組み合わせることで、「軽量・マルチコア活用・ブロッキングI/Oも意識せず書ける」というgoroutineの強みを実現しているとまとめている。
.NET
JetBrainsの「dotInsights」2025年12月号では、.NET 10やC# 14に関する最新情報、移行時に注意すべき重大な変更点、また新しいリフレクションAPIやC# 14のnullable関連機能などが紹介されています。また、.NETアプリのローカライズ方法や、ReSharperとRider 2025.3の最新版のリリース情報、F# Advent Calendarなど開発者向けの楽しい話題も取り上げられています。JetBrains RiderやReSharperは.NET 10、C# 14にいち早く対応し、生産性向上やパフォーマンス改善が進んでいます。
TypeScript
TypeScript 7.0(Project Corsa)はコンパイラと言語サービスをネイティブコードに全面移行しており、VS Code向けネイティブプレビュー拡張や@typescript/native-previewパッケージ(tsgoコマンド)として既に実用的な速度と安定性で利用可能になっている。 型チェックは5.9/6.0とほぼ同等で、大規模プロジェクトでも--incrementalやプロジェクトリファレンス対応を含めて最大約10倍のビルド高速化が報告されている。 一方で、古い--targetや--baseUrl、node10モジュール解決などはいずれ廃止され、6.0はそれらをデプリケートしつつ7.0への橋渡しとなる最後のJavaScriptベース(Strada)リリースとなる。 7.0ではJSチェックとJSDocサポートも再設計されており、一部タグや緩い解釈が削除される代わりにより一貫した型付けが行われ、今後はStrada側は6.0系の最低限のパッチのみに絞り、ネイティブ版への開発リソース集中が明言されている。
Python
Python 3.14.1は3.14系の最初のメンテナンスリリースで、3.14.0から約558件のバグ修正やビルド改善、ドキュメント更新が含まれます。 主な新機能として、フリースレッド版Pythonの正式サポート、アノテーション評価の遅延、テンプレート文字列リテラル、標準ライブラリでの複数インタプリタやZstandard圧縮サポート、改善されたエラーメッセージ、HMAC実装の追加、非同期タスクのインスペクション用CLIやpdbのリモートアタッチ対応などがあります。 また、Sigstoreによる検証への移行、macOS/Windows向け公式バイナリへの実験的JIT同梱、Android向け公式バイナリ提供、Windowsでは新しい「Python install manager」導入などビルド・配布形態にも変更があります。
Python 3.13系の10番目のメンテナンスリリースであるPython 3.13.10が公開されたことを告知する記事です。 このリリースでは3.13.9以降の約300件のバグ修正やビルド改善、ドキュメント更新が含まれており、ダウンロードページやオンラインドキュメント、リリーススケジュールPEP 719など関連リソースへのリンクが案内されています。また、バグ報告先のGitHubリポジトリやPython開発・コミュニティへの寄付のお願いが記載され、最後に多くのボランティアへの謝意とPython Software Foundationを通じた支援の呼びかけで締めくくられています。
Open Telemetry
OpenTelemetry CollectorのBatch Processorは、複数のテレメトリーデータをバッチ化して一括で送信する役割を果たします。従来、バッチ処理はデータ送信効率や負荷分散のために必須とされてきましたが、最新のCollectorやExporterでは、内部的な最適化によりBatch Processorの利用が不要になるケースが増えています。特にExporterが自身でバッチ処理を実装している場合、明示的なBatch Processorの設定は逆にパフォーマンスを悪化させる可能性があります。そのため、Collectorのアップデートや利用するExporterの特性をよく確認し、不要な設定を見直すことが推奨されます。
Visual Studio
Visual Studio 2026では、新機能「Copilot Profiler Agent」が追加され、AIアシスタントがコードのパフォーマンスボトルネック分析を支援します。GitHub CopilotのAIとVisual Studioのパフォーマンスプロファイラを統合し、自然言語でパフォーマンスについて質問したり、ホットパスや最適化のポイントを迅速に特定できるようになりました。その結果、分析作業を効率化しつつ、アプリのパフォーマンス向上が図れます。
Connect RPC
この記事では、Sansanの認証基盤チームが、Connect RPCで定義したProtobufスキーマから見やすいAPIドキュメントを生成するために、protoc-gen-connect-openapiを導入し、OpenAPIスキーマ経由でRedoc+Docusaurusに統合する方法と工夫を紹介している。
従来は Docusaurus+Protobuffet でProtobufからドキュメントを生成していたが、「どんなAPIがあるか分かりにくい」「リクエスト制約(Protovalidate等)が反映されない」といった課題があったため、Protobuf→OpenAPIへの変換に切り替えた。 protoc-gen-connect-openapiはConnect RPC対応かつOpenAPI v3.1・Protovalidate対応で、サービス名タグ付けやストリーミングRPCの扱い、gnosticによるsummary/description指定などをオプションで細かく制御できる。
また、トップレベルのdescriptionなどProtobufに書きづらい長文Markdownは別YAML(general-info.yaml)に分離し、buf generateで生成したOpenAPIとredocly joinでマージする構成を採用している。 最終的には、生成したOpenAPI(result.yaml)をRedocusaurus経由でDocusaurusに組み込み、OpenAPIエコシステムを活用した視認性の高いAPIドキュメントを自動生成できるようになったとまとめている。
開発プロセス
本稿では、ソフトウェア開発におけるロードマップの具体的な作成ステップと、作成時の注意点が示されている。 まず「目標設定」で、関係者全員が理解できる具体的かつ実現可能なゴールを定めることが出発点となる。 次に「現状把握」と「リスク対策」により、リソースや体制上の課題、仕様変更や依存関係による遅延などのリスクを事前に洗い出し、対応方針を決めておく重要性が述べられる。 続いて、プロジェクトの中間目標となるマイルストーンを設定し、WBSで細分化したタスクをもとにガントチャートなどでスケジュール計画表を作成し、進捗管理とモチベーション維持を図る流れが紹介されている。 完成したロードマップは、開発メンバーや顧客など関係者全員と共有し、フィードバックを踏まえてブラッシュアップしながら認識を揃えることが強調される。
注意点としては、情報を詰め込みすぎずレイアウトやアイコンを工夫して「見やすさ」を確保すること、目標やスケジュールの「実現性」をスキルや人員と照らして精査すること、そして市場や技術、リソース状況の変化に応じて「定期的に見直す」動的な計画とすることが挙げられている。 特にAI導入など外部環境の変化に対応するには、スプリントごとの振り返りなどを通じた継続的な更新とリスク評価が、信頼性の高いロードマップ運用の鍵になるとまとめている。
エージェンティックコーディング・仕様駆動開発
本記事は、Claude Codeを用いてNext.js製TODOアプリのUIデバッグとテストコード自動生成を行う手順と注意点を解説した最終回です。 Next.jsとTailwind CSS環境で発生するCSS未適用やハイドレーションエラーなどを、スクリーンショットやエラーログを渡してClaude Codeに順次修正させる流れを紹介し、Vercelへのデプロイまで触れています。 また、テスト品質確保のためのルールをCLAUDE.mdに明示しておく重要性を示し、Vitestを使ったコンポーネント/カスタムフックのテストをClaude Codeに生成させ、高カバレッジなテストを自動作成する実践例を示しています。
この記事は、AIに「レビューと改善を3回繰り返して」と指示するだけで、文章やコードの品質を大きく向上させられる「セルフレビュー反復」という手法を紹介している。 生成フェーズとレビューフェーズを意図的に分離し、2〜3回の反復で段階的に精度を高める原理は、Self-Refine論文などで有効性が示されており、ブログやコード生成において具体的なプロンプト例と、レビュー観点を細かく指定する工夫が有用だと解説している。
本記事は、Claude Code を Microsoft Foundry 上の Claude モデルと連携させ、CLI と VS Code 拡張機能からエンタープライズ向け AI コーディングエージェントとして利用するためのセットアップ手順をまとめたものです。 具体的には、Foundry 上で Claude モデルをデプロイし、環境変数と Entra ID もしくは API キーで認証設定を行い、CLAUDE.md によるプロジェクトコンテキスト管理を通じてエージェントにコードベースの情報を与える方法を説明しています。 さらに、Spec Kit との連携による要件定義から実装までの自動化ワークフロー、GitHub Actions を使ったテスト生成・PR レビューの自動化、Agent HQ や Foundry Control Center によるエージェント運用・監視までをカバーしています。
AWS Transform for full-stack Windows modernizationは、.NETアプリ、SQL Server、レガシーUI(ASP.NET Web Formsなど)とデプロイ構成までを一括で解析し、依存関係を考慮した「波(wave)」ごとの変換ジョブで最大5倍高速にモダナイズするAIサービスです。
SQL ServerからAurora PostgreSQL互換版へのスキーマ/データ移行と、対応する.NETコードのリファクタリング、BlazorへのUI変換、EC2/ECS+CloudFormationまで含めて統合的に自動化し、.NET 10対応や変換レポート編集、リアルタイム進捗表示などの新機能も提供します。
AI
DeepSeek
DeepSeek-V3.2は、エージェント向けに設計された「推論特化」モデルであり、V3.2-Expの正式な後継としてApp・Web・APIで利用可能になりました。 V3.2は日常利用向けに推論性能と出力長のバランスを取ったGPT-5クラスの性能を持ち、V3.2-SpecialeはGemini-3.0-Proと競合する最大級の推論能力を備え、IMOやICPC等の国際コンテストで金メダル水準の結果を達成しています。 V3.2では1,800以上の環境と8.5万件超の複雑な指示から合成したエージェント用データに基づき、「Thinking in Tool-Use」と呼ばれる思考統合型ツール実行が初めてサポートされ、通常モード/Thinkingモード双方でのツール利用が可能です。 APIではV3.2が従来と同じ利用パターンで提供される一方、V3.2-Specialeは2025年12月15日までの一時的な専用エンドポイント経由でAPIのみから利用でき、ツールコールは無効化されています。 また両モデルはHugging Face上でオープンソースとして公開され、詳細な技術レポートも提供されています。
NVIDIA
NVIDIAは2025年12月1日、AI学会「NeurIPS」で自動運転やロボット工学向けの新しいオープンAIモデル「NVIDIA DRIVE Alpamayo-R1」と開発ツール群を発表しました。このモデルは、デジタル空間だけでなく現実の物理世界を認識・相互作用する「フィジカルAI」の基盤技術を強化するものです。NVIDIAはAlpamayo-R1をオープンソースとして公開し、研究・開発の加速を図ります。
Runway
Runway Gen-4.5は、動画生成技術の新しいフロンティアとして登場しました。従来の生成モデルに比べて、より高いモーション品質・プロンプトへの忠実性・視覚的な再現性を実現しています。これにより、ユーザーが提示するプロンプトに応じて自然で滑らかな動画が生成可能となり、映像制作やコンテンツクリエイションの効率性と創造性が大幅に向上します。
AWS
Amazon Nova 2 Sonicは、リアルタイムで自然な会話を実現する次世代の音声対音声(speech-to-speech)基盤モデルで、Amazon Bedrock上で一般提供が開始された。開発者は高品質な会話体験とコスト効率に優れた音声アプリケーションを構築できる。
このモデルは高精度な音声認識と推論能力を持ち、雑音やアクセント、短い発話、8kHzテレフォニー音声にも強く、音声入力からの関数呼び出しや複雑なマルチステップタスクもより安定して処理できる。 対応言語は従来の英・仏・伊・独・西に加え、ポルトガル語とヒンディー語が追加され、多言語を一つの声で切り替えるポリグロット音声によりコードスイッチングも自然に扱える。
対話面では、話者交互(ターンテイキング)の感度を用途に応じて調整でき、ユーザーの割り込みにもスムーズに対応しながら自然な会話リズムを実現する。 テキストと音声をシームレスに切り替えるクロスモーダル入力をサポートし、同一セッション内で文脈を維持したままチャットと音声を行き来できる。
さらに、非同期ツール呼び出しに対応し、外部API処理中もユーザーとの会話を続けられるため、同時に複数の依頼をさばく高度なエージェント的対話が可能となる。 Amazon ConnectやTwilioなど主要テレフォニー/メディアプラットフォームと連携しやすく、既存コールセンター基盤への組み込みも容易で、東京リージョンを含む複数リージョンで利用できる。
Amazon Nova Actは、ブラウザUI操作を自動化するAIエージェントを高信頼で本番運用できる新AWSサービスで、90%超のタスク成功率をうたっています。 Playgroundで自然言語からワークフローを試作し、IDE拡張でデバッグ・デプロイまで一気通貫に行え、Strands Agentsとの連携でマルチエージェント構成も容易です。
Amazon S3 Vectorsが一般提供となり、1インデックス最大20億ベクトル・ベクトルバケットあたり20兆ベクトルまで拡張され、頻繁クエリで約100msのレイテンシと最大100件の検索結果返却に対応しました。サーバーレスなネイティブベクトルストレージとして、専用ベクトルDBに比べ最大90%のコスト削減を謳い、Bedrock Knowledge BasesやOpenSearchとの連携、CloudFormationやPrivateLink対応、14リージョンでの提供が行われています。
OpenAI
OpenAIのCEO、サム・アルトマン氏は、社内で「コードレッド」を宣言し、ChatGPTの強化に全社的なリソースを集中させる方針を示しました。これは、Googleなど他社のAI技術の進展に対する危機感からで、ChatGPTの競争力維持を最優先とするため、広告導入など他のイニシアティブは延期されます。社内では新たな開発チームやエンジニアが迅速に投入され、AIの安全性や性能改善が急務となっています。
Anthropic
Anthropicは、JavaScriptランタイム「Bun」を買収し、Claude Codeの開発基盤をさらに強化すると発表しました。 Claude Codeは2025年5月の一般公開から6か月で年換算売上10億ドルに到達し、NetflixやSpotifyなど大手企業に採用されています。 Bunは高速なオールインワンJSツールチェーンとしてClaude Codeのインフラを支えてきた実績があり、今後もMITライセンスのオープンソースとして継続開発され、Claude Codeの性能や安定性、機能拡張に活用されます。
Microsoft
Azure Logic Apps Standard に、Azure OpenAI、Azure AI Search、Azure AI Document Intelligence、AI Operations などの AI・RAG 機能を備えたビルトインコネクタ群が正式リリースされたことを発表している記事です。 これにより、文章のチャンク・解析、ベクター検索、埋め込み生成、ドキュメント解析などを Logic Apps のワークフロー内からネイティブに利用でき、RAG ベースのアシスタントやドキュメントインテリジェンス、エージェントループ(AgentLoop)による高度なエージェントワークフローなどを追加のインフラなしで構築可能になった点を強調しています。
Data Commons Gemini CLI拡張は、Gemini CLIから自然文でData Commonsの公開統計データを直接問い合わせられるようにする新しい拡張機能です。 複雑なデータ探索や分析クエリを自然言語で投げると、国連や世界銀行などの権威あるソースに基づくデータでLLMの回答をグラウンディングし、幻覚を減らせます。 他のGemini CLI拡張(GoogleSearchやデータベースMCP、Lookerなど)と組み合わせて、自前データとの比較や可視化を含む一連のデータ分析ワークフローを構築でき、スタンドアロンのMCPサーバーとして独自エージェントやアプリケーションにも組み込めます。
論文・その他
Anthropicの招待制イベント「AI Founder Salon」に参加し、ファインディCTOの佐藤氏が登壇した。イベントでは共同創業者Ben Mann氏がAGIの定義やAIエージェントの本質について語り、佐藤氏もパネルディスカッションに参加して自身の見解を共有した。
デジタル庁は、行政向け生成AI環境「源内」で試用する国内開発LLMを公募し、行政実務の質向上と省力化を図ることを目的としています。
人口減少などによる担い手不足を背景に、日本語や行政文書に最適化された国内開発LLMを活用し、2026年度に他府省庁展開や試験導入、評価・検証を行います。 対象は国内で開発された自然言語系LLM/SLMで、ガバメントクラウド上で機密性2情報を扱えるセキュリティ、安全性評価、2026年度中の無償提供などが条件です。 公募期間は2025年12月2日から2026年1月30日までで、評価結果を踏まえ、2027年度以降の本格提供やライセンス契約を検討するとしています。
主要なLLM(大規模言語モデル)プロバイダーのプライバシーポリシーの進化を俯瞰し、2021年から2025年まで11社・計74バージョンを横断分析。LLM関連ポリシーは従来ソフトより約54%長く、曖昧な表現も多い。データ利用や外部連携など独自性が増し、GDPRなど各国規制の影響を受けて構成・説明が変化している。ユーザーは自身のデータ利用範囲や拒否権に注目し、日常的な利用には注意が必要であるとまとめている。
この記事は、2025年12月時点のAI・プログラミング・セキュリティなどのトレンドをざっと俯瞰する内容です。 AI分野では、GoogleのGemini 3やNano Banana Pro、OpenAIのGPT-5.1各種、AnthropicのOpus 4.5、MoonshotのKimi K2、MiniMax M2など、LLMや画像生成、エージェント指向モデルの新バージョンが多数登場し、専用IDE「Antigravity」や天気予測モデルWeatherNext 2など実用特化の応用も進んでいます。 一方で、AIデータセンターの電力・冷却問題、ドイツ語方言などに対する言語バイアス、著作権や音楽のライセンス問題といった社会・倫理面の課題も指摘されています。
プログラミング分野では、Zigのオンライン書籍公開や、ブラウザ/組み込み向け推論ライブラリLiteRT、LLMを前提に新言語を設計するアイデア、チーム向け次世代ノートブックDeepnoteのオープンソース化などが紹介されています。 セキュリティでは、AIセキュリティを後付けにしている現状への警鐘、Claudeを悪用したサイバー攻撃事例、AI生成の偽領収書、物理攻撃に脆弱なTEE、Copilot Studioを悪用する新しいフィッシング手法などが取り上げられています。
運用とWeb領域では、NotebookLMクローン「Open Notebook」を自前環境で動かす方法、Cloudflareの新プロキシフレームワークOxy、分散エージェントネットワークを目指すMITのProject NANDA、ミスインフォ拡散を“ちょっとした摩擦”で減らす研究、Netflixによる生成AI制作ガイド、AIチャットUIの新デザイン提案などが言及されています。 “Things”では、ルービックキューブ自動解決マシンや蝶の移動を追跡する極小センサーといった、ハードウェア寄りの面白ガジェット事例で締めくくられています。
本稿は、オープンソースAIの本質は「モデル重み」ではなく、MCPやClaude Skillsのような“参加のためのアーキテクチャ”にあると論じている。具体的には、MCPサーバーやスキルを小さな再利用可能コンポーネント=「ファジー関数」として公開・共有することで、誰もがAI機能を拡張し学び合えるエコシステムが生まれ、これはUnixやWeb初期の「ビューソース」文化に似た新しいオープンソースの形だと位置づける。[file:page:1] その上で、オープンなプロトコル標準、貢献認知とライセンス再設計、経済メカニズム(メカニズムデザイン)を組み合わせ、アプリストア型の閉じたプラットフォームではなく、多数の開発者とユーザーが価値創造に参加できるAI市場を設計すべきだと提案している。
クラウド
AWS
reinventでの更新情報。
日産自動車は、ソフトウェア定義車(SDV)開発を加速するため、AWS上に「Nissan Scalable Open Software Platform」というクラウド基盤を構築。この基盤は将来的なAI統合も見据えており、ソフトウェア開発の柔軟性とスケーラビリティを高めることを目的としています。
Amazon S3 Tablesに、アクセス頻度に応じてストレージコストを自動最適化するIntelligent-Tieringストレージクラスと、リージョンやアカウントをまたいでApache Icebergテーブルの読み取り専用レプリカを自動同期するレプリケーション機能が追加された。 これにより、コスト管理やマルチリージョン複製のための複雑な実装が不要になり、Iceberg対応エンジンから低レイテンシでグローバルにクエリできる
Azure
クラウドネイティブシステムは、物理学のエントロピーやシャノン情報量、カオス理論になぞらえて「状態の組み合わせが爆発的に増え続ける仕組み」として捉えられ、信頼性を高めるにはこのエントロピーを制御することが重要だと論じている。 Azure上ではリソースそのものよりも、ドメイン境界やAPI、設定・フラグ、チーム構造などの複雑さ(アーキテクチャ/認識上のエントロピー)が故障やインシデントの主因になり、SLAやマルチリージョン・AZ構成だけでは現実の障害を防ぎきれないと指摘する。 そのうえで、状態・設定・依存関係・組織の各エントロピーを意識した設計、冪等APIやサガ、優れた観測性とカオス実験を通じた失敗パターンの学習により、「インフラ冗長性で得たポテンシャルを、障害時の振る舞い設計で実際の信頼性に変える」ことがクラウド時代の戦い方だと結論づけている。
この記事は、2025年12月2日時点で公開されているMicrosoft公式情報から、Azureを中心とした技術トピックをまとめたダイジェストです。 Azure Networkingの高可用性・セキュリティ更新、PerthリージョンのAzure Extended Zones一般提供開始、PostgreSQL 18のAzure Postgres Flexible ServerでのGA、Logic AppsのAI・RAGコネクタやAgent Loop GAなどの新機能が紹介されています。 さらに、GitHub CopilotやMicrosoft Agent Frameworkによるエージェント開発、Microsoft FabricでのAmazon S3連携強化など、AI開発とデータ連携を中心とした最新ブログやイベント情報へのリンクが整理されています。
OS
FreeBSD
FreeBSD 15.0-RELEASEは、2025年12月2日に公開されたFreeBSDの最新リリースで、ベースシステムをpkgパッケージとして配布・管理する新方式「pkgbase」がテクノロジープレビューとして導入された。 従来のfreebsd-update方式も15系の間は利用可能だが、ディストリビューションセット対応は16で終了する予定となっている。 15.0では、root不要で生成可能なリリース成果物、Linux互換のinotify実装、OpenZFS 2.4.0-rc4、OpenSSL 3.5.4(QUICおよび量子耐性暗号対応)、OpenSSH 10.0p2(デフォルト量子耐性鍵共有)なども大きな変更点として挙げられている。
ハードウェア
Android
Samsungは、2025年12月2日にGalaxy Z TriFoldを発表しました。このデバイスは、折りたたみを2回行うことで10インチの大画面を実現し、ポータブルでありながら、高い生産性と没入感ある視聴体験を提供します。最薄部3.9mmのスリムな設計と、カスタムSnapdragon 8 Elite Mobile Platformによる高性能、200MPカメラ、最大5,600mAhのバッテリーを搭載しています。
Galaxy Z TriFoldは、進化したArmor FlexHingeや強化されたディスプレイ、耐久性のある素材を採用し、折りたたみ時の安定性や保護性を追求しています。大画面では、複数のアプリを並べてのマルチタスクや、Samsung DeXによるフルワークスペースの利用が可能。Galaxy AIを活用し、画像編集や検索、動画生成など、AI機能が豊富に用意されています。
視聴面でも、120Hz対応のDynamic AMOLED 2Xディスプレイや、2600nitの高輝度、Vision Boosterによる色補正により、明るく鮮やかな映像が楽しめます。国内では12月12日より販売が開始され、購入者には6か月間のGoogle AI Pro体験や、ディスプレイ修理費用の割引特典が用意されています。
プロセッサー
AWSはre:Invent 2025で第3世代AIチップ「Trainium3」を発表し、Nvidia中心のAIトレーニング市場に対抗しようとしている。 UltraServer構成では最大144基のTrainium3を搭載し、前世代比で約4.4倍の計算性能と4倍の電力効率、より高いメモリ帯域を実現し、GPUトレーニング比で最大50%のコスト削減が見込めるという。 これを用いたEC2 UltraClusters 3.0は、前世代の10倍となるスケールで大規模モデル学習や大規模推論向けに展開され、Anthropicなど複数企業が既にテスト中である。 AWSはさらに、性能やメモリ帯域を大幅に強化した次世代「Trainium4」も開発中で、将来はNvidia NVLink Fusionとの連携により、GravitonやEFAと組み合わせたラックスケールなAI基盤を目指している。