Q1: Amazon Elastic Inferenceとは何ですか?
A1: Amazon Elastic Inferenceは、AWSが提供するサービスで、顧客がAmazon EC2、Amazon SageMakerインスタンス、またはAmazon Elastic Container Service(ECS)タスクに低コストのGPUパワー加速を追加できるようにします。これは、スタンドアロンのGPUベースのインスタンスと比較して、ディープラーニング推論の実行コストを最大75%削減するのに役立ちます。
Q2: Amazonが顧客にAmazon Elastic Inference(EI)からAWS Inferentiaなどの新しいハードウェア加速オプションへのワークロードの移行を推奨する理由は何ですか?
A2: Amazonは、AWS Inferentiaなどの新しいハードウェア加速オプションが推論ワークロードに対してはるかに良いパフォーマンスをより良い価格で提供するため、顧客にAmazon Elastic Inferenceからのワークロードの移行を推奨しています。AWS Inferentiaは、クラウドでの高パフォーマンス推論を提供し、推論の全体的なコストを削減するように設計されています。
Q3: Amazon Elastic Inference(EI)への新規顧客のオンボーディング停止により、どのAWSサービスが影響を受けますか?
A3: Amazon Elastic Inferenceへの新規顧客のオンボーディングを停止すると、Amazon EC2、Amazon SageMakerインスタンス、そしてAmazon Elastic Container Service(ECS)タスクが影響を受けます。これは、Amazon Elastic Inferenceアクセラレーターを使用するエンドポイントとノートブックカーネルの両方に適用されます。
Q4: 2023年4月15日以降に新しいAmazon Elastic Inference(EI)アクセラレーターを作成できますか?
A4: 新規の顧客であり、過去30日間にAmazon Elastic Inferenceを使用したことがない場合、2023年4月15日以降にAWSアカウントで新しいAmazon Elastic Inferenceインスタンスを作成することはできません。しかし、過去30日間に少なくとも一度Amazon Elastic Inferenceアクセラレーターを使用したことがある場合は、新しいアクセラレーターをインスタンスに追加することができます。
Q5: 現在のAmazon SageMaker推論エンドポイントの代替インスタンスオプションを評価するにはどうすればいいですか?
A5: Amazon Elastic Inferenceから適切なSageMakerがサポートするMLインスタンスに既存のワークロードを移行するための費用効果的なデプロイメントを特定するのに、Amazon SageMaker推論推奨者を使用できます。これにより、現在のエンドポイントに最適な代替インスタンスオプションを選択するのに役立ちます。