アプリケーションエンジニアがGCPのデータ領域に殴り込み!Professional Cloud Data Engineer合格体験記
1. はじめに
この記事は、Google Cloudのプロフェッショナル認定資格である**「Professional Cloud Data Engineer (PDE)」**に、普段はAWS上でのアプリケーション開発を行っているエンジニアの合格体験記です。
これから受験を考えているデータエンジニアの方はもちろん、「最近データ基盤ってよく聞くけど、何から手をつければ…?」と思っているサーバーサイドエンジニアやインフラエンジニアの方にも、何かしらのヒントをお届けできれば幸いです。(あくまで個人の体験に基づく参考情報としてお読みくださいね!)
-
筆者のバックグラウンド:
- GCP経験:約1年。主にBigQueryを触り、データ分析の真似事をする程度。
- 職種:元データエンジニア(約1年)で、現在はアプリケーションエンジニア。
- スキルセット:SQLは書ける。Pythonもそれなりに書ける。データパイプライン構築は少し前にオンプレで少し。
- 受験結果: 無事、一発合格しました! 💪
2. Professional Cloud Data Engineer 認定資格とは
公式の説明によると、この資格は「データの収集、変換、公開を行うことで、データドリブンな意思決定を可能にする」能力を証明するものだそうです。 要するに、GCPの多種多様なサービスを適切に組み合わせ、**イケてるデータ基盤を設計・構築・運用できるぜ!**ということを証明する資格ですね。
-
どのような人におすすめか:
- 現役バリバリのデータエンジニア
- データ基盤の全体像を体系的に理解したいサーバーサイド・インフラエンジニア
- GCPを使ったデータ分析の幅を広げたい人
-
なぜこの資格を取得しようと思ったか:
- ズバリ、**「GCP領域を伸ばしていきたい!」**という純粋なスキルアップ欲からです。
- 幸いにも、社内で受験しやすい環境が整っていたことも、大きく背中を押してくれました。(こういう制度、本当にありがたい…!)
3. おすすめの学習方法(と私は信じている)
3.1. 学習期間と勉強時間
週末にガッツリ時間を確保するスタイルで、以下のようなペースで進めました。
- 総学習期間: 約3週間
- 1週間あたりの平均勉強時間: 約10時間 (平日1時間、休日3時間)
3.2. 具体的な学習の進め方
私が実践した学習フローは、ずばり以下の三段構えです。
-
【序盤】公式模擬試験で敵を知る:
まずは公式の模擬試験に挑戦。ボコボコにされても気にする必要はありません。目的は「どんな雰囲気の問題が出るのか?」「どんな単語が飛び交うのか?」を知ることです。ここで敵の姿をぼんやりと捉えます。 -
【中盤】Google Cloud Skills Boostで基礎を固める:
次に、公式の学習プラットフォームであるGoogle Cloud Skills Boostで、知識の土台を築きます。特にハンズオン(ラボ)は、実際にコンソールを触りながら学べるので、「あ、このサービスってこういうことするやつね!」と腹落ちしやすいのでおすすめです。 -
【終盤】Udemyの問題集を"信じ"、ひたすら解く!:
ここが最重要ポイントです。基礎が固まったら、Udemyにある評価の高い模擬試験問題集を、最低でも9割以上安定して取れるようになるまで周回します。
なぜ私がここまでUdemyを推すのか…?多くは語れませんが、**「これをやっておけば、本番で心を強く保てる」**とだけお伝えしておきます。間違えた問題は、なぜ間違えたのか、正解の選択肢はなぜ正しいのかを、選択肢一つ一つまで徹底的に潰しましょう。
4. 試験当日
4.1. 試験形式
- 問題数と試験時間: 50問、試験時間は120分(2時間)です。
- 受験方法: 全国のテストセンターか、オンラインでのリモート受験が選択可能です。(私は集中できるテストセンターを選びました)
- 合格ライン: 非公開ですが、一般的には7割程度の正答率が目安と言われています。
4.2. 当日の手応え
Udemy先生を信じてやり込んだおかげか、当日は驚くほど冷静でした。
- 時間配分: 約1時間で全問解き終わり、残りの時間のうち30分をじっくり見直しに充てることができました。時間はかなり余裕がありましたね。
- 難易度: Udemyの模擬試験と比べても、特別ひねったような奇問はなく、学習した知識で十分に対応できる素直な問題が多かった印象です。
5. 【重要】合否を分ける(かもしれない)頻出サービス
今回の受験で、私が「こいつら、よく顔を出すな…!」と感じた重要サービスたちです。特に**「ユースケースに応じた使い分け」**が問われる傾向が強いと感じました。
-
ETL/ELTの主役たち(Data〇〇ファミリー):
-
Dataflow, Dataproc, Dataprep は、それぞれの違いと得意なことを自分の言葉で説明できるようにしておくことが必須です。
-
Dataflow
: フルマネージドなストリーミング/バッチ処理の王様。Apache Beamベース。 -
Dataproc
: マネージドなHadoop/Sparkクラスタ。既存のOSS資産を活かしたい場合に。 -
Dataprep
: GUIポチポチでデータクレンジング。非エンジニアでも使いやすい。
このあたりの概念や使い方の違いは、シナリオ問題で必ず問われると思って良いでしょう。
-
-
Dataflow, Dataproc, Dataprep は、それぞれの違いと得意なことを自分の言葉で説明できるようにしておくことが必須です。
-
データベース四天王(DB系サービス):
-
Cloud SQL, Spanner, Bigtable, BigQuery の使い分けも頻出でした。
-
Cloud SQL
: いわゆる普通のRDB(MySQL, PostgreSQLなど)。 -
Spanner
: 水平スケーラビリティと強整合性を両立した、Googleの魔法が詰まったDB。 -
Bigtable
: 大量の時系列データや分析データに向いたNoSQL。 -
BigQuery
: DWHの巨人。とりあえず分析したいデータはここに投げ込む。
「トランザクションが必要か?」「スケーラビリティはどのレベルで求めるか?」「リレーショナルか、非リレーショナルか?」といった観点で、最適なDBを選択する問題が多く出題されました。
-
-
Cloud SQL, Spanner, Bigtable, BigQuery の使い分けも頻出でした。
6. まとめと今後の展望
今回、Professional Cloud Data Engineerの資格取得を通して、これまで何となく使っていたGCPのデータ関連サービス一つ一つの役割と繋がりを、体系的に理解することができました。これは、今後の技術選定において、間違いなく大きな武器になるという確信があります。
アプリケーションエンジニアの私にとって、データの世界はまだまだ奥が深いですが、この資格はゴールではなく、データの世界への扉を開けてくれた最高のスタートラインだと感じています。
この記事を読んでいるあなたが、次に合格の栄冠を掴むことを心から応援しています。自分を信じて、頑張ってください! 🚀