16
6

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

BeeXAdvent Calendar 2024

Day 5

Amazon S3 Tablesにデータを投入してAthenaとRedshiftからクエリしてみた

Last updated at Posted at 2024-12-07

この記事はBeeX Advent Calendar 2024の5日目の記事です。
遅刻しました。(12/5投稿予定だった)

※本記事には一部AWSのプレビュー機能も含まれており、一般公開された際には記事の内容から変更される可能性がありますので、認識の上ご覧ください。

はじめに

先日アメリカのラスベガスで開催された AWS re:Invent 2024では多くのAWSアップデートが発表されました。
本記事ではその中でもAmazon S3 Tablesにフォーカスして検証してみましたので、記録として書いていきます。

ざっくりどんなことをする必要があるか知りたい方は以下のAWSブログをご確認ください。

概要

S3 Tablesとは

まずS3 Tablesについてですが、概要ページには次のように記載されています。

Amazon S3 Tablesは、Apache Icebergをサポートする初のクラウドオブジェクトストアであり、表形式データを大規模に保存することを効率化します。 S3 Tablesは、汎用のS3バケットに格納された自己管理Icebergテーブルと比較して、最大3倍のクエリパフォーマンスと最大10倍のトランザクション/秒を実現し、分析ワークロードに特に最適化されています。

S3 Tablesとは、Amazon S3とOpen Table Format技術の一つであるApache Icebergを統合したマネージドなApache Icebergテーブルを提供するサービスになります。
以下のページでApache Icebergやそれを利用したトランザクションデータレイクについて解説されているので、興味がある方はそちらをご確認ください。

また、Apache Icebergについて触りながら学びたいという方は べりんぐ(@_Bassari)さんが作られたハンズオンがオススメです。
自分もApache Icebergまったくワカラン状態から始めましたが、ハンズオンこなしただけでかなり理解が深まりました。非常に感謝してます。

Open Table Formatとは

Open Table Format技術は他にも種類があり、Apache Icebergに加えて、Uberが開発したApache Hudi、Databricksが開発したDelta Lakeが一般的に知られています。
ちなみにApache IcebergはNetflixが開発したものになります。
詳しくは以下のAWS Black Beltを見ていただくと詳しく説明されています。

image.png

Open Table Format技術が広まった理由として、以下のようなデータレイクの課題があったことが挙げられます。
私自身も過去にデータ基盤の設計・開発に携わったことがありますが、更新系データの扱いや頻繁にあるデータソースの変更への追従など、かなり苦労した記憶があります。

※上記資料から抜粋
image.png

AWSでは2023年6月からAmazon Athena for Apache Sparkで上記3つのOTFのサポートを開始していました。

whats newページの以下の記載を見る限りだと最適化やテーブルメンテナンスに課題があったのではないかと思われます。
(私自身は検証しようと思ったままずっと放置してたので自己管理テーブルを構築した経験はありません)

S3 Tablesは、特に分析ワークロード用に最適化されており、自己管理テーブルと比較して、最大3倍のクエリスループットと最大10倍のトランザクション/秒を実現します。 Apache Iceberg標準をサポートするS3 Tablesにより、表形式データは、一般的なAWSやサードパーティのクエリエンジンで簡単にクエリできます。 さらに、S3 Tablesは、データレイクがスケールし進化しても、クエリの効率とストレージコストを自動的に最適化するために、継続的なテーブルメンテナンスを実行するように設計されている。

実作業

Amazon S3 Tablesの構築とデータ投入

概要が理解できたところでS3 Tablesリソースの構築をデータ投入をしていきたいと思います。

AWSドキュメントのS3 Tablesのページを確認すると、S3 Tablesを利用するためのチュートリアルがあったので最初はこちらを利用しようかと思ったのですが、Amazon EMRが書いてあるコマンドだと構築できなかったので別の方法で行いました。

※私が普段EMRを使わないのもありますが、コマンドで構築すると起動する前にエラーが出て終了してしまうので諦めました。。
image.png

上記チュートリアルに記載されていますが、S3 Tablesリソースにデータを投入するのにspark-shellを利用していたので、ローカルの環境でspark-shellを実行するための環境を構築する方法にしました。
image.png

環境構築

ローカルの環境はDockerを利用して構築しました。
これから説明する内容はClaudeにサポートしてもらいながら構築したので、もしかしたら少し過不足や見ていて気になるところがあるかもしれませんが、検証用用途として作ったものなので、そのあたりは大目に見てもらえると。

環境構築のために構築したのは以下のファイル群です。

./
.env
Dockerfile
docker-compose.yml
requirements.txt

Docker上で利用するAWS認証情報は.envファイルに記載してます。

# .env.template
AWS_REGION=us-east-1
AWS_ACCESS_KEY_ID=your-access-key-id
AWS_SECRET_ACCESS_KEY=your-secret-access-key

Dockerfileの内容は以下です。

# ベースイメージとしてPython公式イメージを使用
FROM python:3.9-slim

# 必要なパッケージのインストール
RUN apt-get update && \
    apt-get install -y --no-install-recommends \
    openjdk-17-jdk \
    curl \
    wget \
    procps \
    awscli \
    && rm -rf /var/lib/apt/lists/*

# 環境変数の設定
ENV JAVA_HOME=/usr/lib/jvm/java-17-openjdk-amd64
ENV SPARK_VERSION=3.4.4
ENV HADOOP_VERSION=3
ENV SPARK_HOME=/opt/spark
ENV PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin:${JAVA_HOME}/bin:/usr/local/bin
ENV PYSPARK_PYTHON=/usr/local/bin/python
ENV PYSPARK_DRIVER_PYTHON=/usr/local/bin/python

# Sparkのダウンロードとインストール
RUN wget https://dlcdn.apache.org/spark/spark-${SPARK_VERSION}/spark-${SPARK_VERSION}-bin-hadoop${HADOOP_VERSION}.tgz \
    && tar -xvzf spark-${SPARK_VERSION}-bin-hadoop${HADOOP_VERSION}.tgz \
    && mv spark-${SPARK_VERSION}-bin-hadoop${HADOOP_VERSION} /opt/spark \
    && rm spark-${SPARK_VERSION}-bin-hadoop${HADOOP_VERSION}.tgz

# requirements.txtをコピー
COPY requirements.txt /tmp/requirements.txt

# pysparkの追記とパッケージのインストール
RUN echo "pyspark==${SPARK_VERSION}" >> /tmp/requirements.txt && \
    pip install --no-cache-dir -r /tmp/requirements.txt && \
    pip install --upgrade pip && \
    pip cache purge

# PATHを通す
ENV PATH="/usr/local/bin:$PATH"

# ワーキングディレクトリの設定
WORKDIR /app

# Jupyterのポートを公開
EXPOSE 8888 4040

# Jupyter Notebookを起動
CMD ["jupyter", "notebook", "--ip=0.0.0.0", "--port=8888", "--no-browser", "--allow-root"]

docker-compose.ymlは最小限の内容だけ記載してます。

# docker-compose.yml
version: '3'
services:
  spark:
    build: .
    environment:
      - AWS_REGION=${AWS_REGION}
      - AWS_DEFAULT_REGION=${AWS_DEFAULT_REGION}
      - AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}
      - AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}
    volumes:
      - .:/app
    ports:
      - "8888:8888"
      - "4040:4040"

requirements.txtには次の内容を記載してます。

jupyter
notebook
pandas
numpy
boto3

ファイルの準備ができたら以下のコマンドを実行してコンテナを起動します。

$ docker-compose up -d
$ docker-compose exec spark bash

私の環境だとこんな感じでコンテナ内に入れました。

image.png

ここまでできたらS3 Tablesリソースにアクセスできる準備はできたので、次は実際にリソースを構築していきます。

Amazon S3 Tablesの構築

Amazon S3上での位置づけ的には汎用バケット、ディレクトリバケットに続く新しいバケットタイプとされています。
ドキュメント上だとテーブルバケットと記載されており、S3コンソール上のメニューは別で用意されています。
image.png

※現在はまだ米国東部(バージニア州北部)、米国東部(オハイオ州)、米国西部(オレゴン州)の3リージョンでしか提供されていません

S3 TablesリソースとAWSの分析サービスとの統合は現在プレビュー機能として提供されており、Table Bucketsの画面から有効化が可能で、この機能はリージョン毎に設定が可能です。

image.png

コンソールからはテーブルバケット名のみ入力すればリソースが構築できます。
今回はわかりやすく「qiitatablebucket」というバケット名にしておきます。

image.png

ここで記事執筆時点(2024年12月7日)の注意点として、以下ドキュメントのテーブルバケット名の命名規則を見ると「小文字、大文字、数字、ハイフン(-)しか使用できない」とありますが、ハイフン入れると分析サービスからクエリする際にエラーが出たりしたので、極力ハイフンなしの名前にしたほうがよいです。
※クエリ機能はプレビューなのでGAには修正されるんじゃないかなと思います

テーブルバケットを作成され、バケット名のリンクを押下するとテーブルバケットの詳細が確認できますが、見てわかるとおりコンソール上からはテーブルバケットを作る以外何も操作できません。

image.png

S3 Tablesの構造としては以下のようになっており、S3 Tablesのテーブルの部分がデータベースなどのテーブルに該当する形になります。(後ほど説明します)

  • テーブルバケット>名前空間>テーブル

データ投入

テーブルバケットが作成できたら、最初に構築したローカル環境からデータを投入します。
投入するデータは以下のAWSブログのものを使います。

ローカル環境からデータを投入する場合はSpark SQLを利用するので、spark shellを起動する必要があります。
AWSドキュメントのS3 Tables TutorialにEMRで実行するspark shell起動コマンドが記載されていますが、EMRではないからかローカル環境だとこれだけではうまく動きませんでした。

spark-shell \
--packages software.amazon.s3tables:s3-tables-catalog-for-iceberg-runtime:0.1.3 \
--conf spark.sql.catalog.s3tablesbucket=org.apache.iceberg.spark.SparkCatalog \
--conf spark.sql.catalog.s3tablesbucket.catalog-impl=software.amazon.s3tables.iceberg.S3TablesCatalog \
--conf spark.sql.catalog.s3tablesbucket.warehouse=arn:aws:s3tables:us-east-1:111122223333:bucket/amzn-s3-demo-bucket1 \
--conf spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions            

私の環境だと、コンテナに入った後、以下のコマンドで実行することで起動できました。
[構築したテーブルバケット名][構築したテーブルバケットARN]の部分は自環境のものと読み替えてください。

$ spark-shell \
--packages org.apache.iceberg:iceberg-spark-runtime-3.4_2.12:1.6.1,\
software.amazon.s3tables:s3-tables-catalog-for-iceberg-runtime:0.1.3,\
org.apache.hadoop:hadoop-aws:3.3.4,\
software.amazon.awssdk:s3:2.20.68,\
software.amazon.awssdk:sts:2.20.68,\
software.amazon.awssdk:dynamodb:2.20.68,\
software.amazon.awssdk:glue:2.20.68,\
software.amazon.awssdk:kms:2.20.68,\
software.amazon.awssdk:url-connection-client:2.20.68 \
--conf spark.sql.catalog.[構築したテーブルバケット名]=org.apache.iceberg.spark.SparkCatalog \
--conf spark.sql.catalog.[構築したテーブルバケット名].catalog-impl=software.amazon.s3tables.iceberg.S3TablesCatalog \
--conf spark.sql.catalog.[構築したテーブルバケット名].warehouse=[構築したテーブルバケットARN] \
--conf spark.sql.catalog.[構築したテーブルバケット名].region=us-east-1 \
--conf spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions

参考までに私の環境で実行したコマンドとログを貼っておきます。(AWSアカウントIDはダミー入れてます)

実行コマンドとログ
$ docker-compose exec spark bash
WARN[0000] The "AWS_DEFAULT_REGION" variable is not set. Defaulting to a blank string.
root@02f5797f4c70:/app#
root@02f5797f4c70:/app# spark-shell \
--packages org.apache.iceberg:iceberg-spark-runtime-3.4_2.12:1.6.1,\
software.amazon.s3tables:s3-tables-catalog-for-iceberg-runtime:0.1.3,\
org.apache.hadoop:hadoop-aws:3.3.4,\
software.amazon.awssdk:s3:2.20.68,\
software.amazon.awssdk:sts:2.20.68,\
software.amazon.awssdk:dynamodb:2.20.68,\
software.amazon.awssdk:glue:2.20.68,\
software.amazon.awssdk:kms:2.20.68,\
software.amazon.awssdk:url-connection-client:2.20.68 \
--conf spark.sql.catalog.qiitatablebucket=org.apache.iceberg.spark.SparkCatalog \
--conf spark.sql.catalog.qiitatablebucket.catalog-impl=software.amazon.s3tables.iceberg.S3TablesCatalog \
--conf spark.sql.catalog.qiitatablebucket.warehouse=arn:aws:s3tables:us-east-1:123456789123:bucket/qiitatablebucket \
--conf spark.sql.catalog.qiitatablebucket.region=us-east-1 \
--conf spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions
:: loading settings :: url = jar:file:/opt/spark/jars/ivy-2.5.1.jar!/org/apache/ivy/core/settings/ivysettings.xml
Ivy Default Cache set to: /root/.ivy2/cache
The jars for the packages stored in: /root/.ivy2/jars
org.apache.iceberg#iceberg-spark-runtime-3.4_2.12 added as a dependency
software.amazon.s3tables#s3-tables-catalog-for-iceberg-runtime added as a dependency
org.apache.hadoop#hadoop-aws added as a dependency
software.amazon.awssdk#s3 added as a dependency
software.amazon.awssdk#sts added as a dependency
software.amazon.awssdk#dynamodb added as a dependency
software.amazon.awssdk#glue added as a dependency
software.amazon.awssdk#kms added as a dependency
software.amazon.awssdk#url-connection-client added as a dependency
:: resolving dependencies :: org.apache.spark#spark-submit-parent-c115f731-564b-4272-b24a-e275d986dd4c;1.0
        confs: [default]
        found org.apache.iceberg#iceberg-spark-runtime-3.4_2.12;1.6.1 in central
        found software.amazon.s3tables#s3-tables-catalog-for-iceberg-runtime;0.1.3 in central
        found org.apache.hadoop#hadoop-aws;3.3.4 in central
        found com.amazonaws#aws-java-sdk-bundle;1.12.262 in central
        found org.wildfly.openssl#wildfly-openssl;1.0.7.Final in central
        found software.amazon.awssdk#s3;2.20.68 in central
        found software.amazon.awssdk#aws-xml-protocol;2.20.68 in central
        found software.amazon.awssdk#aws-query-protocol;2.20.68 in central
        found software.amazon.awssdk#protocol-core;2.20.68 in central
        found software.amazon.awssdk#sdk-core;2.20.68 in central
        found software.amazon.awssdk#annotations;2.20.68 in central
        found software.amazon.awssdk#http-client-spi;2.20.68 in central
        found software.amazon.awssdk#utils;2.20.68 in central
        found org.reactivestreams#reactive-streams;1.0.3 in central
        found org.slf4j#slf4j-api;1.7.30 in central
        found software.amazon.awssdk#metrics-spi;2.20.68 in central
        found software.amazon.awssdk#endpoints-spi;2.20.68 in central
        found software.amazon.awssdk#profiles;2.20.68 in central
        found software.amazon.awssdk#aws-core;2.20.68 in central
        found software.amazon.awssdk#regions;2.20.68 in central
        found software.amazon.awssdk#json-utils;2.20.68 in central
        found software.amazon.awssdk#third-party-jackson-core;2.20.68 in central
        found software.amazon.awssdk#auth;2.20.68 in central
        found software.amazon.eventstream#eventstream;1.0.1 in central
        found software.amazon.awssdk#arns;2.20.68 in central
        found software.amazon.awssdk#crt-core;2.20.68 in central
        found software.amazon.awssdk#apache-client;2.20.68 in central
        found org.apache.httpcomponents#httpclient;4.5.13 in central
        found org.apache.httpcomponents#httpcore;4.4.13 in central
        found commons-logging#commons-logging;1.2 in central
        found commons-codec#commons-codec;1.15 in central
        found software.amazon.awssdk#netty-nio-client;2.20.68 in central
        found io.netty#netty-codec-http;4.1.86.Final in central
        found io.netty#netty-common;4.1.86.Final in central
        found io.netty#netty-buffer;4.1.86.Final in central
        found io.netty#netty-transport;4.1.86.Final in central
        found io.netty#netty-resolver;4.1.86.Final in central
        found io.netty#netty-codec;4.1.86.Final in central
        found io.netty#netty-handler;4.1.86.Final in central
        found io.netty#netty-transport-native-unix-common;4.1.86.Final in central
        found io.netty#netty-codec-http2;4.1.86.Final in central
        found io.netty#netty-transport-classes-epoll;4.1.86.Final in central
        found software.amazon.awssdk#sts;2.20.68 in central
        found software.amazon.awssdk#dynamodb;2.20.68 in central
        found software.amazon.awssdk#aws-json-protocol;2.20.68 in central
        found software.amazon.awssdk#glue;2.20.68 in central
        found software.amazon.awssdk#kms;2.20.68 in central
        found software.amazon.awssdk#url-connection-client;2.20.68 in central
:: resolution report :: resolve 4179ms :: artifacts dl 136ms
        :: modules in use:
        com.amazonaws#aws-java-sdk-bundle;1.12.262 from central in [default]
        commons-codec#commons-codec;1.15 from central in [default]
        commons-logging#commons-logging;1.2 from central in [default]
        io.netty#netty-buffer;4.1.86.Final from central in [default]
        io.netty#netty-codec;4.1.86.Final from central in [default]
        io.netty#netty-codec-http;4.1.86.Final from central in [default]
        io.netty#netty-codec-http2;4.1.86.Final from central in [default]
        io.netty#netty-common;4.1.86.Final from central in [default]
        io.netty#netty-handler;4.1.86.Final from central in [default]
        io.netty#netty-resolver;4.1.86.Final from central in [default]
        io.netty#netty-transport;4.1.86.Final from central in [default]
        io.netty#netty-transport-classes-epoll;4.1.86.Final from central in [default]
        io.netty#netty-transport-native-unix-common;4.1.86.Final from central in [default]
        org.apache.hadoop#hadoop-aws;3.3.4 from central in [default]
        org.apache.httpcomponents#httpclient;4.5.13 from central in [default]
        org.apache.httpcomponents#httpcore;4.4.13 from central in [default]
        org.apache.iceberg#iceberg-spark-runtime-3.4_2.12;1.6.1 from central in [default]
        org.reactivestreams#reactive-streams;1.0.3 from central in [default]
        org.slf4j#slf4j-api;1.7.30 from central in [default]
        org.wildfly.openssl#wildfly-openssl;1.0.7.Final from central in [default]
        software.amazon.awssdk#annotations;2.20.68 from central in [default]
        software.amazon.awssdk#apache-client;2.20.68 from central in [default]
        software.amazon.awssdk#arns;2.20.68 from central in [default]
        software.amazon.awssdk#auth;2.20.68 from central in [default]
        software.amazon.awssdk#aws-core;2.20.68 from central in [default]
        software.amazon.awssdk#aws-json-protocol;2.20.68 from central in [default]
        software.amazon.awssdk#aws-query-protocol;2.20.68 from central in [default]
        software.amazon.awssdk#aws-xml-protocol;2.20.68 from central in [default]
        software.amazon.awssdk#crt-core;2.20.68 from central in [default]
        software.amazon.awssdk#dynamodb;2.20.68 from central in [default]
        software.amazon.awssdk#endpoints-spi;2.20.68 from central in [default]
        software.amazon.awssdk#glue;2.20.68 from central in [default]
        software.amazon.awssdk#http-client-spi;2.20.68 from central in [default]
        software.amazon.awssdk#json-utils;2.20.68 from central in [default]
        software.amazon.awssdk#kms;2.20.68 from central in [default]
        software.amazon.awssdk#metrics-spi;2.20.68 from central in [default]
        software.amazon.awssdk#netty-nio-client;2.20.68 from central in [default]
        software.amazon.awssdk#profiles;2.20.68 from central in [default]
        software.amazon.awssdk#protocol-core;2.20.68 from central in [default]
        software.amazon.awssdk#regions;2.20.68 from central in [default]
        software.amazon.awssdk#s3;2.20.68 from central in [default]
        software.amazon.awssdk#sdk-core;2.20.68 from central in [default]
        software.amazon.awssdk#sts;2.20.68 from central in [default]
        software.amazon.awssdk#third-party-jackson-core;2.20.68 from central in [default]
        software.amazon.awssdk#url-connection-client;2.20.68 from central in [default]
        software.amazon.awssdk#utils;2.20.68 from central in [default]
        software.amazon.eventstream#eventstream;1.0.1 from central in [default]
        software.amazon.s3tables#s3-tables-catalog-for-iceberg-runtime;0.1.3 from central in [default]
        ---------------------------------------------------------------------
        |                  |            modules            ||   artifacts   |
        |       conf       | number| search|dwnlded|evicted|| number|dwnlded|
        ---------------------------------------------------------------------
        |      default     |   48  |   0   |   0   |   0   ||   48  |   0   |
        ---------------------------------------------------------------------
:: retrieving :: org.apache.spark#spark-submit-parent-c115f731-564b-4272-b24a-e275d986dd4c
        confs: [default]
        0 artifacts copied, 48 already retrieved (0kB/82ms)
24/12/07 07:35:08 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
24/12/07 07:35:20 WARN Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041.
Spark context Web UI available at http://02f5797f4c70:4041
Spark context available as 'sc' (master = local[*], app id = local-1733556920161).
Spark session available as 'spark'.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 3.4.4
      /_/

Using Scala version 2.12.17 (OpenJDK 64-Bit Server VM, Java 17.0.13)
Type in expressions to have them evaluated.
Type :help for more information.

scala>

以下が表示されたら起動成功です。

Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 3.4.4
      /_/

Using Scala version 2.12.17 (OpenJDK 64-Bit Server VM, Java 17.0.13)
Type in expressions to have them evaluated.
Type :help for more information.

scala>

先ほど説明したようにテーブルバケット配下には先に名前空間を作成する必要があるので、次のSQLで対象のテーブルに名前空間を作成します。
命名規則に従う必要がありますが、小文字、大文字、数字、アンダースコアを使っていれば問題ないと思います。

> spark.sql("""CREATE NAMESPACE IF NOT EXISTS [構築したテーブルバケット名].[名前空間名]""")

名前空間ができたらCREATE TABLEでテーブルを作ります。
このあたりは通常のSQLと変わりません。

> spark.sql("""CREATE TABLE IF NOT EXISTS [構築したテーブルバケット名].[名前空間名].[テーブル名]
 ([カラム名] [データ型]
  """)

テーブルができたらINSERT文でデータを投入してみます。

> spark.sql("""INSERT INTO [構築したテーブルバケット名].[名前空間名].[テーブル名]
  VALUES
  ([データ値])
  """)

データ投入ができたら、まずはSpark SQLを使用してSELECT文で投入データが取得できるか確認します。

> spark.sql(""" SELECT * FROM [構築したテーブルバケット名].[名前空間名].[テーブル名] """).show()

ここでも私の環境で実行したコマンドとログを参考までに貼っておきます。

実行コマンドとログ
scala> spark.sql("""CREATE NAMESPACE IF NOT EXISTS qiitatablebucket.test_ns""")
res0: org.apache.spark.sql.DataFrame = []

scala> spark.sql("""CREATE TABLE IF NOT EXISTS qiitatablebucket.test_ns.sample_table
     |  (id INT,
     |   name STRING,
     |   value INT)
     |   USING iceberg
     |   """)
res1: org.apache.spark.sql.DataFrame = []

scala> spark.sql("""INSERT INTO qiitatablebucket.test_ns.sample_table
     |   VALUES
     |   (1, 'Jeff', 100),
     |   (2, 'Carmen', 200),
     |   (3, 'Stephen', 300),
     |   (4, 'Andy', 400),
     |   (5, 'Tina', 500),
     |   (6, 'Bianca', 600),
     |   (7, 'Grace', 700)
     |   """)
res2: org.apache.spark.sql.DataFrame = []

scala> spark.sql(""" SELECT * FROM qiitatablebucket.test_ns.sample_table """).show()
+---+-------+-----+
| id|   name|value|
+---+-------+-----+
|  1|   Jeff|  100|
|  2| Carmen|  200|
|  3|Stephen|  300|
|  4|   Andy|  400|
|  5|   Tina|  500|
|  6| Bianca|  600|
|  7|  Grace|  700|
+---+-------+-----+

これでデータの投入は完了です。
マネジメントコンソールを確認すると作成した名前空間とテーブルが表示されていることがわかります。

image.png

AthenaとRedshiftからクエリしてみる

せっかくデータ投入まで実施したので、プレビューリリースされているAWS分析サービスとの統合とクエリを試してみます。

S3 Tablesコンソールを表示したときに出てきていた以下の部分から統合を有効化します。
注意点として、これを統合するとLakeFormationを利用したアクセス管理されることになります。
現在LakeFormationを利用しておらず、他の方法でアクセス管理を行っているという方は影響が出る可能性もあるので、それを認識の上有効化してください。

image.png
image.png

有効化すると次のような表示に変わります。
image.png

有効化されるとs3tablescatalog経由でAWS Glue Data Catalogからテーブルバケット、名前空間、テーブルにアクセスできるようになります。

S3 TablesとAWS Glue Catalogの対応表は以下になります。
少しわかりづらいですが、S3 TablesでいうところのテーブルバケットがGlue Data Catalogのカタログ、名前空間がGlueのデータベース、テーブルがGlueのテーブルとなっています。

image.png
https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html#how-table-integration-works

クエリするための準備作業の前提条件がいくつかあり、作業者にLakeFormationやGlueの権限を付与する必要があります。
今回は検証なのでAdministratorAccessを付与したユーザーで作業してます。

Amazon Athenaからのクエリ

Athenaの方が設定が楽なので、まずはAthenaからクエリしてみます。
以下にAthena利用時のドキュメントが記載されていますが、記載が不足している部分があります。

まずLakeFormationコンソールからData Catalog>Catalogs>s3tablescatalogを表示して、先ほど作成したqiitatablebucketバケットが自動で登録されているか確認します。

image.png

その後テーブルバケットを選択してアクションからGrantを押下します。

image.png

Athenaからクエリする作業者のプリンシパルを指定し、先ほど作成した名前空間(=データベース)を選択します。

image.png

データベース権限としてSuper権限にチェックを付けてGrantを押下します。

image.png

同じ要領でテーブルレベルの権限の付与も以下の通り行います。

image.png

以下のようにデータベースレベルとテーブルレベルの権限が付与されると思います。
※表示されていなければ一覧を更新すると出てくると思います

image.png

権限を付与した作業者でAthena Query editorから以下のSQLを実行すると、S3 Tablesに対してクエリができます。

SELECT * FROM "s3tablescatalog/[構築したテーブルバケット名]"."[構築した名前空間]"."[作成したテーブル名]"

私の環境だと以下のSQLになります。

SELECT * FROM "s3tablescatalog/qiitatablebucket"."test_ns"."sample_table"

image.png

これでAthenaからのクエリは完了です。

Amazon Redshiftからのクエリ

次にRedshiftからのクエリを行います。

今回は既に構築済みのRedshiftクラスター(ra3.large)を利用します。
image.png

Redshiftからのクエリも一応ドキュメントに記載されていますが、Athena同様に記載通り設定しても上手くいかない部分があるので、私が検証した内容を書いていきます。

Redshiftからクエリするために必要な作業は次の2つです。
※上記ドキュメントには他の作業も記載されていますが、既に実施済みの作業は省略しています。

  1. 名前空間へのLakeFormationリソースリンクを作成する
  2. クエリ実行者のプリンシパルに対してLakeFormationリソースリンクへのアクセス権限を付与する

LakeFormationリソースリンクの作成

S3 Tablesに対して分析サービスからアクセスを行う場合、Redshift、Data Firehose、EMRについてはリソースリンクを作成する必要があります。

リソースリンクとは、LakeFormationで異なるAWSアカウントや別リージョンのデータベースやテーブルに対してアクセスするためのエイリアスのようなものを設定できる機能になります。
この機能を利用してs3tablescatalogとの紐付けを行います。

リソースリンクはコンソールからだとLakeFormationのDatabases>Create databaseから作成できます。
設定項目は次のようなものを入力します。

  • Resource link name:[S3 Tabales名前空間と紐付けるリンク名]
  • Shared catalog:[AWSアカウントID]:s3tablescatalog/[構築したテーブルマケット名]
  • Shared database:[作成した名前空間]

image.png

次のコマンドでも作成できます。

$ aws glue create-database --region us-east-1 --catalog-id "123456789123" --database-input \
'{
  "Name": "test_ns_link",
  "TargetDatabase": {
    "CatalogId": "123456789123:s3tablescatalog/qiitatablebucket",
    "DatabaseName": "test_ns"
  },
  "CreateTableDefaultPermissions": []
}'

リソースリンクを対象としたアクセス権限の付与

後はAthena同様にアクセス権限をデータベースとテーブルの2つ分をクエリする作業者ユーザーに付与します。

まずはデータベース権限です。以下の通り設定します。

image.png
image.png
image.png

次にテーブル権限です。
先ほどはGrantを選択しましたが、次はGrant on targetを選択します。

image.png

Athenaの時と同じように設定します。

image.png
image.png

Redshift側の権限設定・クエリ確認

RedshiftからAWS Glue Data Catalogに対してクエリする場合、外部データベースのawsdatacatalogに対してIAMユーザーがクエリできるように設定が必要です。

image.png

RedshiftのDBユーザー(≠IAMユーザーではない)で以下のコマンドを実行して、Redshift内部の権限設定を行います。

GRANT USAGE ON DATABASE awsdatacatalog to "IAM:[IAMユーザー名]"

image.png

権限設定後、Edit connectionからクエリエディタの認証方法をIAMに変更します。

image.png

image.png

実行先などを確認した上で以下のSQLを実行するとS3 Tablesにクエリされ、正常にデータが表示されます。

SELECT * FROM awsdatacatalog.[リソースリンク名].[作成したテーブル名];

image.png

これでRedshiftからのクエリは完了です。

おわりに

元々S3上でIcebergを利用する構成には興味がありましたが、その学習時間が取れず中々手が付けられてませんでした。
今回マネージドなIcebergテーブル機能としてS3 Talesが出てくれたおかげで、学習に掛けられる時間が少なくて済みそうだったので検証を行ってみました。

re:Inventで発表直後のサービスや機能はドキュメントやコンソール上の操作が上手くいかないことが多いので、今回も中々試行錯誤で時間がかかりました。ただ、そのおかげでそれなりに理解ができたと思います。

S3 Tablesへのクエリ方法はAthenaとRedshift以外にもう3つあるのですが、その中でもData FirehoseはデータベースからのCDCレプリケーションにも利用できるとのことなので、次回はS3 TablesとData Firehoseの連携について検証してみようと思います。

残りのEMRやQuickSightについては個人的に検証優先度低めなので、他の方にお任せしたいと思います。

この記事がどなたかの参考になれば幸いです。

16
6
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
16
6

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?