おはようございます!
インフラエンジニアの木村です!
今回、今年出たAWS資格のAWS AIF、DEA、MLAを1ヶ月で全て一発合格したので、私が使用した教材や実施した勉強方法を紹介させていただきます!
AWS AIF
今年でたCertified Cloud Practitionerと同様のランクに位置するAI資格です。難易度的にはCLFをAIバージョンにし、少し難しくした程度です。
よく登場するサービスはBedrockです。「一回もBedrock触ったことがないよ〜」という方は難しく感じてしまうのではないかなっと思います。
AIF対策におすすめ教材
少しでも手を動かして理解してみたい方は、こちらの教材が大変わかりやすいので、おすすめです。解説も詳しいので、生成AIに苦手意識のある方ほど、こちらを読んでいただければと思います。
次に、Bedrockはある程度触っているから、その先でテスト対策をしたいという方は、Udemyの上記問題がおすすめです。
私がこの記事を書いている段階では、問題数が多く、難易度も適切で、試験範囲を網羅しており、使い勝手の良い問題集だと思います。私はとりあえず1周して、疑問点をまとめて、もう1周しました。
最後に、Skill Builder!
力試しとして無料版のみ解きました。体感としては、通常より、少し難易度の上がった問題が出るので、合格点に達していなくても、落ち込まずに、試験に臨みましょう!
AWS DEA
こちらは今年でた、データエンジニア向けの試験です。
よく出るサービスはGlue、Athena、Redshift、Kinesisなどです。廃止されたAWS DASよりはそこまで深い内容は聞いてこないので、難易度的にもAWS DASのアソシエイト版っと言った感じです。
DEA対策におすすめ教材
正直これさえ解いておけば、合格間違いなしと言った感じです。試験範囲もカバーされているだけでなく、似たような問題も多くでます。
私は普段Glue、Athena、Redshift、Kinesisと言ったデータ系のサービスを触らないのですが、こちらと最後の確認程度にSkill Builder解いたぐらいで合格できました。
先ほどの問題集だけでも十分合格点に届くと思いますが、私の方で、Glueのハンズオン記事作りましたので、もし、AWS DEAによく出てくるGlueについて深く理解したい方がいれば、こちらも参考にしていただけますと幸いです。
AWS MLA
今年でた、機械学習者向けの試験になります。
正直SageMaker触らない私からするとかなり難しく感じました。「SageMakerってこんなにサービスがあるんだ〜」っと思いした。ここは念入りに解説させていただきます。
MLA対策におすすめ教材
対策問題集は現段階ではこれが一番最適かなっと思います。
ただ、全く同じ問題が出るわけではありませんし、私を含めたSageMaker初心者ではSageMakerサービスの細かな違いが、わかりずらいと思います。
ですので、下記にて試験前にまとめた、試験に出てくるSageMakerのサービスを一覧化させていただきます。
MLA対策のためのSageMakerまとめ
サービス名 | 役割・用途 | 特徴 |
---|---|---|
SageMaker Pipelines | 機械学習(ML)のワークフローを自動化し、再現性と管理を向上 | ワークフローの構築、ステップ管理、パイプラインのバージョニングや再利用が可能 |
SageMaker Debugger | トレーニング中のモデルを監視し、問題を検出 | トレーニングプロセスをリアルタイムで監視し、ボトルネックや不適切なパラメータ設定を特定 |
SageMaker Clarify | モデルのバイアスや説明性を提供 | データやモデルの公平性を評価し、予測結果の説明を提供 |
SageMaker Model Monitor | デプロイ済みモデルのパフォーマンスを監視 | データドリフトやパフォーマンス劣化を検出し、問題を通知 |
SageMaker Model Card | モデル情報を一元管理 | モデルの目的、メタデータ、評価結果、バージョン情報などを文書化 |
SageMaker Wrangler | データの前処理と変換を簡易化 | ノーコードでデータクレンジングや特徴量エンジニアリングを実行 |
SageMaker Canvas | ノーコードでMLモデルを構築 | エンジニアリングスキルなしでMLモデルを作成し、ビジネスアナリスト向けに設計 |
SageMaker Studio | オールインワンプラットフォーム | Jupyterベースの統合環境で、データ処理、モデル開発、トレーニング、デプロイを一元管理 |
SageMaker Experiments | 実験結果の管理と比較 | モデルやトレーニングの試行履歴を整理し、再現性や比較分析が容易 |
SageMaker JumpStart | 事前構築されたモデルやソリューションテンプレートを提供 | 簡単に始められるモデルやMLプロジェクトのリファレンスを提供 |
SageMaker Role Manager | SageMakerリソースへのアクセス権限管理 | 事前定義された役割テンプレートを活用して、最適なIAMポリシーを迅速に設定可能 |
SageMaker Model Registry | モデルのライフサイクル管理 | モデルのバージョニング、承認、デプロイメントの追跡 |
SageMaker Autopilot | 自動でMLモデルを構築し、チューニング | データをアップロードするだけで、自動で特徴量エンジニアリングからモデルチューニングまで実行 |
SageMaker Neo | モデルを複数のデバイス環境向けに最適化 | モデルをIoTデバイスやエッジデバイスで高速かつ効率的に実行できる形式に変換 |
SageMaker Ground Truth | データラベリングを効率化 | 人力ラベル付けと自動化ラベル付けのハイブリッドアプローチ |
SageMaker Feature Store | 機械学習のための特徴量(Feature)の保存・管理 | 特徴量の取得や再利用を効率化し、複数モデル間での整合性を確保 |
また違いが微妙にわかりにくいものも下記にて抜粋して比較しました。
1. SageMaker Debugger vs. SageMaker Model Monitor
共通点:どちらも監視設定
項目 | SageMaker Debugger | SageMaker Model Monitor |
---|---|---|
役割 | モデルのトレーニングプロセスを監視し、異常や問題をリアルタイムで検出 | デプロイ済みモデルの運用状態を監視し、データドリフトやパフォーマンス劣化を検出 |
タイミング | トレーニング中 | モデルデプロイ後 |
検出する問題 | ロスが適切に減少しない、不適切なハイパーパラメータ、ボトルネックなど | 入力データがトレーニング時の分布から逸脱している場合や、予測精度の低下 |
主なユースケース | トレーニングジョブの最適化と問題解決 | 運用中のモデルのモニタリング、信頼性の維持 |
2. SageMaker Model Card vs. SageMaker Experiments vs. SageMaker Clarify
共通点:3点とも評価結果を出力する
項目 | SageMaker Model Card | SageMaker Experiments | SageMaker Clarify |
---|---|---|---|
役割 | モデルのメタデータや成果を文書化 | モデルトレーニングやハイパーパラメータ試行結果の整理と比較 | モデルの公平性(バイアス)と説明性を分析 |
主な用途 | モデル開発成果の報告、レビュー、ドキュメント化 | モデルの試行履歴の管理と再現性の確保 | モデルの透明性向上、倫理的なAI運用 |
対象データ | モデルメタデータ(目的、性能、トレーニング設定など) | トレーニング試行データ(精度、ロス、パラメータなど) | 入力データのバイアス、予測結果の説明可能性 |
出力 | モデル情報のドキュメント化 | トレーニング試行結果の比較とグラフ表示 | レポート(公平性スコア、重要特徴量など) |
活用シナリオ例 | 開発チーム間やステークホルダーへの成果物の説明 | 複数のモデルバージョンやトレーニング手法を比較 | モデルの倫理性を評価、規制対応 |
3. SageMaker Wrangler vs. SageMaker Canvas
共通点:どちらもノーコードツール
項目 | SageMaker Wrangler | SageMaker Canvas |
---|---|---|
役割 | データの前処理・変換をノーコードで行う | ノーコードでMLモデルを構築 |
主な用途 | データクレンジング、特徴量エンジニアリング | ビジネスユーザー向けの簡単なMLモデリング |
対象ユーザー | データサイエンティスト | ビジネスアナリスト、非エンジニア |
操作内容 | データの結合、変換、可視化、出力 | データをアップロードして予測モデルを作成、結果を分析 |
出力 | クレンジング済みデータセット、特徴量 | 予測可能なMLモデル、予測結果 |
適用シナリオ例 | 複雑なデータ変換やカスタムデータ処理が必要な場合 | データ分析者が専門的な支援なしで迅速にMLモデルを試作したい場合 |
4. SageMaker Model Registry vs. SageMaker Feature Store
共通点:どちらも何かを保存する
項目 | SageMaker Model Registry | SageMaker Feature Store |
---|---|---|
役割 | モデルのライフサイクル管理 | 機械学習用の特徴量(Feature)の保存・管理 |
主な用途 | モデルのバージョン管理、承認、デプロイメントのトラッキング | 特徴量の共有、再利用、オンライン/オフラインでの特徴量取得 |
管理対象 | モデル(バージョン、メタデータ、ステータスなど) | 特徴量データ(例:トレーニングデータに用いるユーザー属性情報など) |
ユースケース例 | モデルのリリース管理や監査 | モデル間で一貫性のある特徴量データの使用や、大規模データでの再利用が必要な場合 |
その他MLA対策
-
MLSの受験準備をする
あとは、先にAWS MLSを取っておくのも良いと思います。
多くの対策問題集が出ていますし、AIのモデルやアルゴリズムの違いなど、AWSサービス以外のAIの理解がないとMLAの試験突破は少し難しいと思いますので。
まとめ
いかがでしたでしょうか?
今年追加された資格試験について、現段階で情報が少なく、対策が容易ではないものばかりでした。私の記事を読んで少しでも参考になれば幸いです。