4
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

背景

年末にAWS Certified DevOps Engineer - Professionalの更新試験を控えていて、再勉強中です。そんな中、オンライン教材の模擬試験の問題にS3へアップロードしたオブジェクトのチェックに関する問題がありました。
公式ページもあり、試験対策的には以下の注意点を確認しておけばよさそうでした。

AWS Management Console を使用していくつかの操作を実行するとき、オブジェクトのサイズが 16 MB より大きい場合、Amazon S3 はマルチパートアップロードを使用します。この場合、チェックサムは完全なオブジェクトの直接チェックサムではなく、個々のパートのチェックサム値に基づく計算です。
・・後略・・

しかし、これ以外にもアルゴリズムの差異とかアップロード方法などによって色々違うようです。

去年の投稿もS3に関係した「S3ブロックパブリックアクセスって結局どう使いこなすべき?」でしたが、今年もS3に関するチェックサムを掘り下げてみたいと思いました。

自分は資料を読んだだけではナレッジが頭に入らないタイプです。実際にやってみて理解しておこうと思いました。

チェックサム復習

チェックサム - Wikipediaを簡単にまとめると、何らかの法則で、実データの値を加算して算出。実データとセットで提供して実データが正しいかの検証に使うチェック文字列という事になると思います。

身近な使用例

ダウンロードファイル

commons-langライブラリのダウンロードページでは、各ファイルに対応するsha512形式チェックサムがあります。

コンテナイメージ

Dockerのドキュメントによると、dockerイメージの指定時にタグ名ではなく、より厳密にimage@digest形式で指定する事が出来る様になっています。digest 値という名称ですが、sha256形式のチェックサムの様です。

チェックサム作成方法

pythonにはhashlibという便利なライブラリがあるようなので、それを利用してみます。

Google Colaboratoryでgenerate_checksumというプロンプトでAI生成するとそのライブラリを使った以下の関数作ってくれました。他のコード補完AIでも作ってくれると思います。便利な世の中です。

# prompt: def generate_checksum

import hashlib

def generate_checksum(filename, hash_function='sha256'):
    """
    Generates the checksum of a file using the specified hash function.

    Args:
        filename: The path to the file.
        hash_function: The hash function to use (default: 'sha256').
                      Supported functions: 'md5', 'sha1', 'sha256', 'sha512'.

    Returns:
        The hexadecimal representation of the checksum, or None if an error occurs.
    """
    try:
        hash_obj = hashlib.new(hash_function)
        with open(filename, 'rb') as file:
            for chunk in iter(lambda: file.read(4096), b''):
                hash_obj.update(chunk)
        return hash_obj.hexdigest()
    except FileNotFoundError:
        print(f"Error: File '{filename}' not found.")
        return None
    except ValueError:
        print(f"Error: Invalid hash function '{hash_function}'.")
        return None
    except Exception as e:
        print(f"An unexpected error occurred: {e}")
        return None

先のページからダウンロードしてきたcommons-lang3-3.17.0-bin.zipのsha512を作ると以下の文字列でした。
00ea810d00b0f8a5bf898edfed1fa022e9bd2bf31c9c00859de2ac6c4bc971d6833f3c2e0b24cecad6bb979de2078be8b1cc7eb42ca63c9ec35f70b1490e8c3d

同ページに記載していたsha512チェックサムは以下の通りでした。同じですね。
00ea810d00b0f8a5bf898edfed1fa022e9bd2bf31c9c00859de2ac6c4bc971d6833f3c2e0b24cecad6bb979de2078be8b1cc7eb42ca63c9ec35f70b1490e8c3d

S3でのチェックサム使用(基本編)

アップロードチェック

AWSコンソール上でS3にファイルをアップロードする際、プロパティにチェックサムを詳細に指定できる設定が確認できました。
image.png

オフの時(デフォルト)では、MD5チェックサムがETagにセットされ、オンにすると事前に作ったチェックサムと関数を指定する事で整合性をチェックしてくれるようです。

でたらめな値を指定すると当然エラーになりました。
image.png

先ほどのcommons-lang3-3.17.0-bin.zipのsha256チェックサムを指定したのですが、エラーになりました。
924d95a2792478457e59ef062e3d4b508febf60aef779b7c0a6a0e057c9e33a9

一旦空白で登録してみます。追加後のオブジェクト詳細は以下の通りになってました。
image.png

公式記事によるとbase64エンコードが必要な様です。

以下sha256の16進数文字列をbase64エンコードする関数をAIに作ってもらって、変換した値を入力してアップロードしたら成功しました。sha256チェックサムを単純文字列としてbase64エンコードするとダメみたいなので気を付けてください。

# prompt: def encode_hexstr_to_base64

import base64

def encode_hexstr_to_base64(hex_string):
    """Encodes a hexadecimal string to a Base64 string.

    Args:
        hex_string: The hexadecimal string to encode.

    Returns:
        The Base64 encoded string, or None if an error occurs.
    """
    try:
        byte_string = bytes.fromhex(hex_string)
        base64_string = base64.b64encode(byte_string).decode('utf-8')
        return base64_string
    except ValueError:
        print("Error: Invalid hexadecimal string.")
        return None
    except Exception as e:
        print(f"An unexpected error occurred: {e}")
        return None

中途半端にS3にアップロードされる事態を防ぐためにはチェックサム活用が必須という事が解りました。

ETagの確認

SHA256チェックサムでアップロードしたオブジェクトのETag(エンティティタグ)は以下の値でした。この値は、md5チェックサムを前述関数で作成した値(base64エンコードは無し)と一致しました。
858c90de3dfc7b9740610d2ab0585c76

ダウンロードチェック

アップロード側では正しくアップロードされている保証ができる事になります。ダウンロード側のチェックを見ていきます。

ETagの値はs3apiで取得可能でした。

$ aws s3api head-object --bucket hogehoge-bucket --key commons-lang3-3.17.0-bin.zip
{
    "AcceptRanges": "bytes",
    "Expiration": "expiry-date=\"Sun, 22 Dec 2024 00:00:00 GMT\", rule-id=\"hogehoge-bucket-rule\"",
    "LastModified": "2024-12-11T14:51:29+00:00",
    "ContentLength": 11055479,
    "ETag": "\"858c90de3dfc7b9740610d2ab0585c76\"",
    "ContentType": "application/zip",
    "ServerSideEncryption": "AES256",
    "Metadata": {}
}

追加チェックサムは以下のコマンドで取得可能でした。

$ aws s3api get-object-attributes --bucket hogehoge-bucket --key commons-lang3-3.17.0-bin.zip --object-attributes Checksum
{
    "LastModified": "2024-12-11T14:51:29+00:00",
    "Checksum": {
        "ChecksumSHA256": "kk2VonkkeEV+We8GLj1LUI/r9grvd5t8CmoOBXyeM6k="
    }
}

S3でのチェックサム使用(マルチパート編)

公式ページ:マルチパートアップロードにパートレベルのチェックサムを使用する

正しくアップロード、ダウンロードされているかのチェックは巨大なファイルで使用するケースが多いと思います。しかし、冒頭の内容などによると、少なくともETagは巨大な16MBを超えるオブジェクトのチェックに使うのは難しそうです。ETagが使えなさそうではありますが、追加チェックサムでもやっぱり駄目なのか試したいと思います。

amazon-corretto-17.0.13.11.1-windows-x64-jdk.zipが180MBあるようなのでこちらで試したいと思います。

前述Google Colaboratory上での関数で算出された値を設定しようとしたところ・・・・・
SH256チェックサム:eaacdc37c6f23753ebfae341985f11baacfaf84ca972e600803cb409c94ee8ca
同、Base64エンコード:6qzcN8byN1Pr+uNBmF8Ruqz6+EypcuYAgDy0CclO6Mo=

なんと、追加チェックサムは16MB以上のオブジェクトでは設定できない様です。16MB以下のファイルでは入力可能だった事前計算された値の欄が入力不可能になっています。
image.png

重要情報

[アップデート] Amazon S3 デフォルトのデータ整合性保護が変わります #AWSreinvent

どうやら、今後デフォルトチェックサムが変わっていくようです。クラスメソッドさんの記事によるとまだ有効になっていない様です。しばらくしたら自分も試してみたいと思います。
16MB超えるファイルに関してはこちらのページにも書いてあった通り、独自にメタデータに値をセットしてチェックするのがよさそうです。

上述のようなシチュエーションでも整合性チェックを行いたい場合は、PUT時に自前でチェックサムを計算した上でメタデータを付与し、GET時にメタデータのチェックサムとGETしたオブジェクトから生成したチェックサムと比較をする必要があります。

公式ページ:s3api put-object
で、--metadataオプションが確認できます。もしくはmetadataでなく、チェックサム値を別ファイルにしてアップロードしておく方が簡単かもしれません。

4
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?