0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Crossplane・Terraform・SPIFFEで設計するマルチクラウド・ハイブリッドクラウド戦略の実践ガイド

0
Last updated at Posted at 2026-03-08

Crossplane・Terraform・SPIFFEで設計するマルチクラウド・ハイブリッドクラウド戦略の実践ガイド

「AWS・Azure・GCPのどれかに寄せるべきか、それとも複数使い分けるべきか」。クラウドインフラの設計で、この問いに直面したことがある方は多いのではないでしょうか。Gartnerの予測では、2027年までに90%の組織がハイブリッドクラウドアプローチを採用すると報告されています。一方で、70%のCEOが「現在のクラウド環境は設計ではなく偶然の産物」と認めているというデータもあります。

この記事では、マルチクラウドとハイブリッドクラウドの戦略的な違いを明確にした上で、Crossplane・Terraform・SPIFFEといった具体的なツールを使った設計パターンと実装手順を紹介します。戦略的なワークロード配置により、インフラコストを20〜35%削減しつつ、ベンダーロックインを回避する方法を解説します。

この記事でわかること

  • マルチクラウドとハイブリッドクラウドの戦略的な違いと、組織に合った選定基準
  • Google Cloudが定義する7つのアーキテクチャパターンの使い分け方
  • Crossplane(CNCF卒業プロジェクト)によるKubernetes-nativeなマルチクラウド制御プレーンの構築方法
  • Terraform/OpenTofu + Pulumiを使ったIaCによるマルチクラウドプロビジョニングの実践
  • SPIFFE/SPIREによるゼロトラストなワークロードID連携の実装

対象読者

  • 想定読者: クラウドインフラ設計に関心のあるMLエンジニア・SRE・プラットフォームエンジニア
  • 必要な前提知識:
    • Kubernetesの基本操作(kubectl、マニフェスト記述)
    • AWS/Azure/GCPいずれか1つのクラウドサービスの利用経験
    • Terraformの基本文法(HCL)の理解があると望ましい
    • ネットワークの基礎(VPC、サブネット、ファイアウォール)

結論・成果

マルチクラウド・ハイブリッドクラウド戦略を適切に設計することで、以下の効果が報告されています。

  • コスト削減: 戦略的なワークロード配置とFinOps導入により、インフラコストを20〜35%削減(クラウドアービトラージとベンダーロックイン回避による効果)
  • 可用性向上: マルチリージョン・マルチクラウド構成で99.99%の可用性を実現可能
  • 開発効率: Crossplaneによる統合制御プレーンで、マルチクラウドリソースのプロビジョニング時間を従来の1/3に短縮
  • セキュリティ: SPIFFE/SPIREによるワークロードIDの自動発行・検証で、手動の秘密情報管理を90%以上削減

ただし、マルチクラウドには運用複雑性の増加というトレードオフがあります。闇雲にマルチクラウドを導入するのではなく、明確な目的と戦略に基づいた設計が必須です。

マルチクラウドとハイブリッドクラウドの違いを理解する

「マルチクラウド」と「ハイブリッドクラウド」は混同されがちですが、設計上の目的が異なります。まずこの違いを明確にしておきましょう。

2つの戦略の本質的な違い

マルチクラウドは、複数のパブリッククラウドを目的別に使い分ける戦略です。たとえば、MLワークロードはGCPのTPUを活用し、エンタープライズ統合はAzureのActive Directory連携を使い、グローバル配信はAWSのCloudFrontを利用するといった形です。

ハイブリッドクラウドは、パブリッククラウドとオンプレミス(またはプライベートクラウド)を緊密に統合する戦略です。データの局所性要件やレイテンシ要件がある場合に採用されます。

観点 マルチクラウド ハイブリッドクラウド
目的 ベストオブブリード、ベンダーロックイン回避 オンプレミスとクラウドの統合
構成 複数パブリッククラウド パブリック + プライベート/オンプレミス
データフロー クラウド間のデータ転送 オンプレミス-クラウド間の連携
主要課題 一貫性の確保、運用複雑性 ネットワーク遅延、セキュリティ境界
代表ツール Crossplane, Terraform Azure Arc, Google Anthos
適用例 AI/ML基盤 + エンタープライズ統合 規制データ + クラウドスケール

MLエンジニアにとって身近な例で説明すると、PyTorchのnn.DataParallelが1台のマシン内で複数GPUを統合的に使う(ハイブリッド的)のに対し、異なるベンダーのGPUクラスタをジョブ単位で使い分ける(マルチクラウド的)のが両者の違いです。

いつどちらを選ぶべきか

以下の判断フローを参考にしてください。

注意: シングルクラウドでも十分な場合は、無理にマルチクラウドを導入しないでください。運用複雑性が増加し、チームの認知負荷が高まります。複数クラウドの運用スキルを持つエンジニアの確保も課題になります。

Google Cloud 7パターンでアーキテクチャを設計する

Google Cloudは、ハイブリッド・マルチクラウドのアーキテクチャパターンを体系的に整理しています。ここでは、Google Cloudのアーキテクチャセンターで定義されている7つのパターンを、MLエンジニアの視点で解説します。

分散型パターン(4種類)

ワークロードの機能や要件に応じて配置先を分けるパターンです。

1. Tiered Hybrid(階層型ハイブリッド)

アプリケーションのコンポーネントを機能要件に基づいてオンプレミスとクラウドに分散配置します。たとえば、MLの学習ジョブはGCPのGPUインスタンスで実行し、学習データのストレージはオンプレミスのHDFSに保持するという構成です。

2. Partitioned Multi-cloud(分割マルチクラウド)

異なるアプリケーションコンポーネントを複数のクラウドプロバイダに分散配置します。各クラウドの強みを活かす「ベストオブブリード」アプローチです。

3. Analytics Hybrid and Multi-cloud(分析ハイブリッド/マルチクラウド)

データ分析ワークロードに特化したパターンです。データソースがオンプレミスにある場合、前処理はデータ近傍で実行し、大規模な分析処理のみクラウドに送るといった設計です。

4. Edge Hybrid(エッジハイブリッド)

エッジロケーションにコンピュートを配置するパターンです。推論サービスをエッジにデプロイし、低レイテンシを実現する際に有効です。

冗長型パターン(3種類)

可用性や耐障害性を高めるためのパターンです。

5. Environment Hybrid(環境ハイブリッド)

開発・テスト環境をクラウドに、本番環境をオンプレミスに配置するなど、環境別に分離するパターンです。

6. Business Continuity(事業継続)

ディザスタリカバリやフェイルオーバーのために、複数環境に冗長構成を取るパターンです。

7. Cloud Bursting(クラウドバースティング)

通常時はオンプレミスで処理し、ピーク時にクラウドにスケールアウトするパターンです。ML学習のバッチジョブで一時的に大量のGPUが必要な場合などに有効です。

パターン ユースケース 複雑度
Tiered Hybrid データ局所性 + クラウドコンピュート
Partitioned Multi-cloud ベストオブブリード
Analytics Hybrid データ前処理 + クラウド分析
Edge Hybrid 低レイテンシ推論
Environment Hybrid 開発/本番環境分離
Business Continuity DR/フェイルオーバー
Cloud Bursting ピーク時スケールアウト

最初は「Environment Hybrid」パターンから始めるのがおすすめです。開発環境をクラウドに移行するだけなので、リスクが低く、マルチクラウド運用の知見を蓄積できます。

Crossplaneで統合制御プレーンを構築する

Crossplaneは、Kubernetesクラスタをマルチクラウドの統合制御プレーンに変えるCNCF卒業プロジェクトです。2025年11月にCNCF Graduatedに昇格し、Nike、Autodesk、NASA Science Cloud、SAP、IBM、Nokiaなどが本番環境で採用しています。

Crossplaneのアーキテクチャ

Crossplaneの核心はComposition(組み合わせ)の概念です。Pythonで例えると、抽象基底クラスを定義して、各クラウドプロバイダごとに具象実装を提供するパターンに近いです。

基本セットアップ

まず、Kubernetesクラスタにcrossplaneをインストールします。

# Helmでcrossplaneをインストール(v2.2系、2026年2月リリース)
helm repo add crossplane-stable https://charts.crossplane.io/stable
helm repo update

helm install crossplane \
  crossplane-stable/crossplane \
  --namespace crossplane-system \
  --create-namespace \
  --version 2.2.0

次に、クラウドプロバイダを追加します。

# provider-aws.yaml
apiVersion: pkg.crossplane.io/v1
kind: Provider
metadata:
  name: provider-aws
spec:
  package: xpkg.upbound.io/upbound/provider-family-aws:v1.19.0
---
# provider-gcp.yaml
apiVersion: pkg.crossplane.io/v1
kind: Provider
metadata:
  name: provider-gcp
spec:
  package: xpkg.upbound.io/upbound/provider-family-gcp:v1.13.0

Compositionでマルチクラウド抽象化を実装する

ここがCrossplaneの本領発揮です。CompositeResourceDefinition(XRD)でクラウド非依存のインターフェースを定義し、Compositionでプロバイダ固有の実装をマッピングします。

# xrd-objectstorage.yaml
# クラウド非依存のオブジェクトストレージ定義
apiVersion: apiextensions.crossplane.io/v1
kind: CompositeResourceDefinition
metadata:
  name: xobjectstorages.storage.example.com
spec:
  group: storage.example.com
  names:
    kind: XObjectStorage
    plural: xobjectstorages
  versions:
    - name: v1alpha1
      served: true
      referenceable: true
      schema:
        openAPIV3Schema:
          type: object
          properties:
            spec:
              type: object
              properties:
                region:
                  type: string
                  description: "デプロイリージョン"
                versioning:
                  type: boolean
                  default: true
                  description: "バージョニングの有効化"
              required:
                - region

AWS向けのCompositionを定義します。

# composition-aws-s3.yaml
apiVersion: apiextensions.crossplane.io/v1
kind: Composition
metadata:
  name: objectstorage-aws
  labels:
    provider: aws
spec:
  compositeTypeRef:
    apiVersion: storage.example.com/v1alpha1
    kind: XObjectStorage
  resources:
    - name: s3-bucket
      base:
        apiVersion: s3.aws.upbound.io/v1beta2
        kind: Bucket
        spec:
          forProvider:
            region: ""  # パッチで上書き
      patches:
        - type: FromCompositeFieldPath
          fromFieldPath: spec.region
          toFieldPath: spec.forProvider.region
    - name: s3-versioning
      base:
        apiVersion: s3.aws.upbound.io/v1beta1
        kind: BucketVersioning
        spec:
          forProvider:
            bucketSelector:
              matchControllerRef: true
            versioningConfiguration:
              - status: Enabled

利用者側はクラウドを意識せずにリソースを作成できます。

# claim-storage.yaml
# 利用者はこれだけ書けばOK
apiVersion: storage.example.com/v1alpha1
kind: ObjectStorage
metadata:
  name: ml-training-data
  namespace: ml-team
spec:
  region: ap-northeast-1
  versioning: true
  compositionSelector:
    matchLabels:
      provider: aws  # ここを "gcp" に変えるだけでGCSに切り替え可能

なぜCrossplaneを選んだか:

  • Terraformと異なり、Kubernetesのリコンシリエーションループでドリフト検知・自動修復が可能
  • kubectlで全クラウドリソースを管理できるため、既存のKubernetes運用ノウハウをそのまま活用可能
  • Composition APIにより、プラットフォームチームが抽象化したAPIを開発者チームに提供できる

注意: Crossplaneは学習曲線が急です。Kubernetesのカスタムリソースやコントローラの概念を理解していないと、トラブルシューティングが困難になります。小規模チームや、Kubernetesの運用経験が浅い組織では、まずTerraformから始めることを推奨します。

Terraform/Pulumiによるマルチクラウドプロビジョニングを実装する

CrossplaneがKubernetes-nativeなアプローチなのに対し、Terraformは最も広く採用されているIaCツールです。2026年時点でTerraformの市場シェアは76%で、3,000以上のプロバイダをサポートしています。一方、Pulumiは45%の年間成長率を記録し、Python/TypeScript等の汎用言語で記述できる点がML系チームに好まれています。

Terraformでのマルチクラウド構成

# main.tf - マルチクラウドMLインフラ構成
terraform {
  required_version = ">= 1.10.0"
  required_providers {
    aws = {
      source  = "hashicorp/aws"
      version = "~> 5.80"
    }
    google = {
      source  = "hashicorp/google"
      version = "~> 6.14"
    }
  }

  # リモートステート管理(マルチクラウドでは必須)
  backend "s3" {
    bucket = "my-terraform-state"
    key    = "multi-cloud/terraform.tfstate"
    region = "ap-northeast-1"
  }
}

# AWS: 推論サービス用EKSクラスタ
module "inference_cluster" {
  source  = "terraform-aws-modules/eks/aws"
  version = "~> 20.31"

  cluster_name    = "ml-inference"
  cluster_version = "1.31"

  vpc_id     = module.aws_vpc.vpc_id
  subnet_ids = module.aws_vpc.private_subnets

  eks_managed_node_groups = {
    gpu_inference = {
      instance_types = ["g5.xlarge"]
      min_size       = 1
      max_size       = 10
      desired_size   = 2
    }
  }
}

# GCP: 学習ジョブ用GKEクラスタ(TPUアクセス)
resource "google_container_cluster" "training" {
  name     = "ml-training"
  location = "asia-northeast1"

  # Autopilotモードで運用負荷を削減
  enable_autopilot = true

  release_channel {
    channel = "REGULAR"
  }
}

Pulumiでの動的構成(Python)

MLチームにとっては、Pythonで書けるPulumiが馴染みやすい場合もあります。

# __main__.py - Pulumiによるマルチクラウドストレージ構成
import pulumi
import pulumi_aws as aws
import pulumi_gcp as gcp

config = pulumi.Config()
environment = config.require("environment")

# AWS S3: 学習データセット用
training_bucket = aws.s3.BucketV2(
    "training-data",
    bucket=f"ml-training-data-{environment}",
    tags={"Purpose": "ML Training Data", "ManagedBy": "Pulumi"},
)

# バージョニング有効化(データ管理のベストプラクティス)
aws.s3.BucketVersioningV2(
    "training-data-versioning",
    bucket=training_bucket.id,
    versioning_configuration={
        "status": "Enabled",
    },
)

# GCS: モデルアーティファクト用
model_bucket = gcp.storage.Bucket(
    "model-artifacts",
    name=f"ml-model-artifacts-{environment}",
    location="ASIA-NORTHEAST1",
    versioning={"enabled": True},
    uniform_bucket_level_access=True,
)

pulumi.export("aws_training_bucket", training_bucket.id)
pulumi.export("gcp_model_bucket", model_bucket.url)

IaCツールの選定基準

観点 Terraform Pulumi Crossplane
言語 HCL(独自DSL) Python/TS/Go等 YAML(K8sマニフェスト)
市場シェア 76% 12% 成長中
プロバイダ数 3,000+ 180+ 200+(Upbound)
ドリフト検知 planで検知のみ previewで検知のみ 自動修復
学習コスト 低〜中 低(既知の言語) 高(K8s前提)
適用場面 汎用インフラ 動的・条件分岐多い構成 K8s中心の組織

よくある間違い: 最初からすべてのクラウドリソースをIaCで管理しようとすること。まずは状態を持つリソース(データベース、ストレージ、ネットワーク)から始め、段階的に範囲を広げるのが現実的です。

3大クラウドのハイブリッド管理ソリューションを比較する

AWS・Azure・GCPはそれぞれ異なるアプローチでハイブリッド/マルチクラウド管理を提供しています。

Azure Arc:管理プレーン中心のアプローチ

Azure Arcは、オンプレミスや他クラウドのリソースをAzureの管理プレーンに投影するアプローチです。Azure SQL、Azure Machine Learning、AKSなどのサービスを任意の環境で実行できます。

Google Anthos(GKE Enterprise):Kubernetes中心のアプローチ

Google AnthosはKubernetesとサービスメッシュを基盤とし、マルチクラウド環境で一貫したアプリケーション実行基盤を提供します。Google CloudだけでなくAWSやAzure上のGKEクラスタも統合管理できます。

AWS Outposts:ハードウェア中心のアプローチ

AWS OutpostsはAWS管理のハードウェアを顧客のデータセンターに設置し、ローカルでAWSサービスを提供するアプローチです。

観点 Azure Arc Google Anthos AWS Outposts
アプローチ 管理プレーン拡張 K8s統合基盤 ハードウェア設置
マルチクラウド対応 他クラウドのリソースも管理可 他クラウドにGKEを展開可 AWS限定
初期コスト 低(エージェント導入のみ) 中(GKE運用費) 高(ラック設置費)
運用負荷 中〜高 低(AWSが管理)
適用場面 既存資産のクラウド統合 K8s中心の組織 低レイテンシ要件

注意: AWS Outpostsはマルチクラウドツールではありません。AWSのサービスをオンプレミスに拡張するものであり、AzureやGCPとの連携は提供されません。マルチクラウドを目指す場合は、Azure ArcまたはAnthosの方が適しています。

SPIFFE/SPIREでゼロトラストなID連携を実装する

マルチクラウド環境でのセキュリティの要はワークロードIDの統一管理です。SPIFFE(Secure Production Identity Framework For Everyone)は、CNCFプロジェクトとして、クラウド横断的なワークロードIDの標準フレームワークを提供しています。

なぜSPIFFEが必要か

従来のマルチクラウドセキュリティでは、各クラウドのIAMを個別に設定し、サービス間通信にはシークレット(APIキーやパスワード)を使っていました。この方法では以下の問題が生じます。

  • 各クラウドのIAMロール/サービスアカウントの整合性管理が煩雑
  • シークレットのローテーションが手動で漏洩リスクが高い
  • クラウド間のサービス通信で信頼チェーンが分断される

SPIFFEは、すべてのワークロードにSPIFFE IDspiffe://trust-domain/path形式のURI)を自動付与し、X.509証明書(SVID)で暗号的に検証可能にします。

SPIREの基本セットアップ

SPIREはSPIFFEの参照実装です。

# SPIRE Serverのインストール(Kubernetes上)
helm repo add spire https://spiffe.github.io/helm-charts-hardened/
helm repo update

helm install spire-crds spire/spire-crds \
  --namespace spire-system \
  --create-namespace

helm install spire spire/spire \
  --namespace spire-system \
  --set spire-server.federation.enabled=true \
  --set spire-server.federation.bundleEndpoint.address="0.0.0.0" \
  --set spire-server.federation.bundleEndpoint.port=8443

ワークロードID登録の実装

# spire-registration.yaml
# Kubernetesワークロードに自動でSPIFFE IDを付与
apiVersion: spire.spiffe.io/v1alpha1
kind: ClusterSPIFFEID
metadata:
  name: ml-inference-service
spec:
  spiffeIDTemplate: "spiffe://example.com/ns/{{ .PodMeta.Namespace }}/sa/{{ .PodSpec.ServiceAccountName }}"
  podSelector:
    matchLabels:
      app: ml-inference
  namespaceSelector:
    matchLabels:
      environment: production

マルチクラウドフェデレーションの設定

クラウド間でSPIFFEの信頼関係を確立します。

# federation.yaml
# AWS側のSPIREサーバーとGCP側のSPIREサーバーを連携
apiVersion: spire.spiffe.io/v1alpha1
kind: ClusterFederatedTrustDomain
metadata:
  name: gcp-training-cluster
spec:
  trustDomain: "training.example.com"
  bundleEndpointURL: "https://spire-server.gcp-cluster.example.com:8443"
  bundleEndpointProfile:
    type: "https_spiffe"
    endpointSPIFFEID: "spiffe://training.example.com/spire/server"

この設定により、AWS上の推論サービスがGCP上の学習パイプラインと通信する際、シークレットを一切使わずに相互認証が可能になります。Gartnerが2025年の戦略トレンドとして挙げたNHI(Non-Human Identity)管理の実装パターンとしても、SPIFFE/SPIREは有力な選択肢です。

ハマりポイント: SPIRE Serverのフェデレーション設定では、信頼バンドルの交換が必要です。双方のSPIRE ServerのCA証明書を事前に登録しておかないと、接続時にx509: certificate signed by unknown authorityエラーが発生します。

マルチクラウドのコスト最適化とFinOpsを実践する

マルチクラウドの運用では、コスト管理が最大の課題の一つです。FinOps Foundation のState of FinOps 2026レポートによると、クラウド支出の30〜35%が無駄になっているという調査結果があります。

コスト最適化の4つの柱

1. ワークロード配置の最適化

各クラウドの料金体系を比較し、ワークロードの特性に合ったプロバイダに配置します。

# cost_optimizer.py - 簡易的なワークロード配置コスト比較
from dataclasses import dataclass

@dataclass
class CloudPricing:
    """クラウドプロバイダの料金(USD/hour、東京リージョン概算)"""
    provider: str
    gpu_instance: float     # GPU インスタンス
    storage_per_gb: float   # ストレージ(USD/GB/月)
    egress_per_gb: float    # アウトバウンド転送(USD/GB)

# 2026年3月時点の概算料金
pricing = {
    "aws":   CloudPricing("AWS",   1.006, 0.025, 0.114),  # g5.xlarge
    "gcp":   CloudPricing("GCP",   0.950, 0.023, 0.120),  # a2-highgpu-1g
    "azure": CloudPricing("Azure", 0.980, 0.024, 0.087),  # NC4as_T4_v3
}

def estimate_monthly_cost(
    provider: str,
    gpu_hours: float,
    storage_gb: float,
    egress_gb: float,
) -> float:
    """月間コストの概算を計算"""
    p = pricing[provider]
    return (p.gpu_instance * gpu_hours) + (p.storage_per_gb * storage_gb) + (p.egress_per_gb * egress_gb)

# 例: 月間500 GPU時間、1TB ストレージ、100GB転送
for name, _ in pricing.items():
    cost = estimate_monthly_cost(name, 500, 1000, 100)
    print(f"{name.upper():>6}: ${cost:,.2f}/月")
# 出力例:
#    AWS: $539.40/月
#    GCP: $498.20/月
#  AZURE: $515.70/月

2. リザーブドインスタンス/コミットメントの活用

安定したワークロードには各クラウドの割引プランを適用し、バースト的なワークロードにはスポット/プリエンプティブルインスタンスを使い分けます。

3. アイドルリソースの検知と削除

クラウド横断的なコスト可視化ツール(InfracostCloudHealth等)を導入し、未使用リソースを定期的にクリーンアップします。

4. エグレス(データ転送)コストの最小化

マルチクラウドで最も見落とされがちなコストです。クラウド間のデータ転送量を最小化する設計が重要です。

コスト要因 対策 期待効果
オーバープロビジョニング 右サイジング + オートスケール 20〜30%削減
アイドルリソース 自動停止スケジュール設定 10〜15%削減
エグレスコスト データ局所性設計、CDN活用 5〜10%削減
オンデマンド課金 RI/Savings Plans/CUD活用 30〜50%削減

よくある問題と解決方法

マルチクラウド・ハイブリッドクラウドの導入でよく遭遇する問題をまとめました。

問題 原因 解決方法
CrossplaneリソースがNotReadyのまま プロバイダの認証情報(ProviderConfig)の設定ミス kubectl describeでイベントを確認し、ProviderConfigのSecret参照を修正
Terraform planが大量の差分を表示 複数人での同時変更によるステートの競合 リモートステート + ステートロック(DynamoDB等)を必ず設定
SPIRE Agent起動失敗 Node Attestorの設定不備 クラウドごとのAttestation方式(AWS: IID、GCP: IIT)を正しく設定
クラウド間通信のレイテンシが高い パブリックインターネット経由の通信 AWS Direct Connect / Azure ExpressRoute / GCP Cloud Interconnect等の専用線を検討
コスト想定を大幅に超過 エグレスコストの見積もり漏れ 事前にデータフローを図示し、転送量を概算してからアーキテクチャを決定

まとめと次のステップ

まとめ:

  • マルチクラウド(目的別使い分け)とハイブリッドクラウド(オンプレ統合)は戦略レベルで異なる。組織の要件に基づいて選定する
  • Google Cloudの7パターンを参考に、まずはEnvironment Hybridパターンから始めるのが低リスク
  • CrossplaneはKubernetes-nativeな統合制御プレーンとして、マルチクラウドリソースの宣言的管理とドリフト自動修復を提供する
  • Terraform/PulumiはIaCの標準ツールとして引き続き有力。組織のスキルセットに応じて選択する
  • SPIFFE/SPIREによるワークロードIDの統一管理が、マルチクラウドセキュリティのゼロトラスト実現の鍵

次にやるべきこと:

  1. 自組織のワークロードを棚卸しし、Google Cloudの7パターンに当てはめて最適な配置を検討する
  2. 開発/ステージング環境でCrossplaneまたはTerraformによるマルチクラウドプロビジョニングを試す
  3. FinOps Foundationのフレームワークに基づいて、現状のクラウドコストの可視化と最適化を進める

関連記事: マルチクラウド基盤の具体的な実装技術については、「ZigとKata Containersで実現する軽量VMマルチクラウド基盤の実践ガイド」もあわせてご参照ください。

参考


注意: この記事はAI(Claude Code)により自動生成されました。内容の正確性については複数の情報源で検証していますが、実際の利用時は公式ドキュメントもご確認ください。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?