0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

OrioleDB のファイル格納とブロックレベル圧縮

Last updated at Posted at 2025-03-21

引き続き、OrioleDB の記事を投稿していきます。これまでの記事は、OrioleDBタグで検索してください。

本稿では OrioleDB のデータ圧縮機能(ブロックレベル圧縮)を見ていきます。それに付随して、テーブルに対応したファイルがどこにどう格納されているか、という点も確認していきます。これがわからないと圧縮の効果を調べることができませんので。

今回は パッチ適用済み PostgreSQL 17_5 と orioledb beta9 を使って検証しました。

OrioleDB のファイル格納

Access method を orioledb としたテーブルは、データベースクラスタディレクトリ($PGDATA)下の orioledb_data ディレクトリのデータベースの OID番号のディレクトリ中のファイルとして格納されます。ls で眺めるとファイルノード番号のファイルと .map ファイルができています。

[postgres@rocky9 ~]$ ls $PGDATA/orioledb_data/16384
25823         25827         25837         25848         25859
25823-69.map  25827-69.map  25837-77.map  25848-78.map  25859-80.map
25824         25836         25847         25858
25824-69.map  25836-77.map  25847-78.map  25858-80.map

OrioleDB のテーブルは、テーブル本体が主キーをキーとした B-treeインデックスになっています。MySQL の innoDB と同じ具合です。これは primary と呼ばれます。
主キー以外のインデックスは二次インデックスとして別ファイルになります。
また、1フィールドのサイズが大きい列データは toast としてやはり別ファイルに格納されます。役割としてはネイティブ PostgreSQL の TOAST と同じです。

実際にテーブルを作って対応付けを確認してみます。テーブル tbl1 に各々3000バイトのランダムなバイト列を含む 100行のデータを投入します。

db1=# CREATE TABLE tbl1 (id int primary key, c1 int, ts timestamp, lob bytea);
CREATE TABLE
db1=# CREATE INDEX idx_tbl1_ts ON tbl1 (ts);
CREATE INDEX
db1=# INSERT INTO tbl1 SELECT g, (random()*10)::int, now() + (g || 'min')::interval,  pg_read_binary_file('/dev/urandom', 0, 3000) FROM generate_series(1, 100) g;
INSERT 0 100

db1=# SELECT oid, relname, relfilenode, reltoastrelid FROM pg_class WHERE relname ~ 'tbl1';
  oid  |   relname   | relfilenode | reltoastrelid
-------+-------------+-------------+---------------
 25821 | tbl1_pkey   |       25824 |             0
 25816 | tbl1        |       25826 |         25819
 25827 | idx_tbl1_ts |       25827 |             0
(3 rows)

db1=# SELECT oid, relname, relfilenode, reltoastrelid FROM pg_class WHERE oid = 25819;
  oid  |    relname     | relfilenode | reltoastrelid
-------+----------------+-------------+---------------
 25819 | pg_toast_25816 |       25823 |             0
(1 row)

db1=# CHECKPOINT;
CHECKPOINT

ファイルとの対応付けは pg_class の relfilenode でファイルノード番号を調べればわかります。メモリ上にあって未だファイルができていないことがあるので、CHECKPOINT を実行してファイルに書き出させます。

以下のように、pg_toast_25816、tbl1_pkey、idx_tbl1_ts について、それぞれファイルができています。tbl1 (25826) についてはファイルがありません。主キーインデックスこそがテーブルデータの本体だからです。

[postgres@rocky9 ~]$ ls -l $PGDATA/orioledb_data/16384/
(中略)
-rw-------. 1 postgres postgres   417792 Mar 19 09:34 25823
-rw-------. 1 postgres postgres       40 Mar 19 09:34 25823-69.map
 → pg_toast_25816(tbl1 の TOASTテーブル、408KB)

-rw-------. 1 postgres postgres     8192 Mar 19 09:34 25824
-rw-------. 1 postgres postgres       40 Mar 19 09:34 25824-69.map
 → tbl1_pkey (テーブル本体インデックス、8KB)

-rw-------. 1 postgres postgres     8192 Mar 19 09:34 25827
-rw-------. 1 postgres postgres       40 Mar 19 09:34 25827-69.map
 → idx_tbl1_ts(二次インデックス、8KB) 

orioledb_relation_size関数

OrioleDB のテーブルは pg_relation_size関数ではサイズを調べることができません。0 や明らかに違った値が返ります。orioledb拡張には orioledb_relation_size(oid) という関数が含まれていて、これを使えばいいのか、と思うのですが・・・

db1=# SELECT pg_relation_size('tbl1'::regclass);
 pg_relation_size
------------------
                0
(1 row)

db1=# SELECT orioledb_relation_size('tbl1'::regclass);
 orioledb_relation_size
------------------------
                 425984
(1 row)

上記の結果は大体合っているのですが、ちょっと変な値です。primary と toast と二次インデックスを全部足すと、 417792 + 8192 + 8192 = 434176 で、もう 8KB 大きいはず。かといって、二次インデックスを追加すると orioledb_relation_size の結果値は増えて、DROP INDEX で二次インデックス除くと減りますので、二次インデックスは含まれているようです。primary を含まないというのも変です。何かバグがあるようです。

toast はいつ使われる?

PostgreSQL では 1行のデータサイズが 2KB を超えると、1列のデータが大きい列について TOAST 格納が適用されました。OrioleDB で toast が使われるのはどこからでしょうか?

今度は主キーと 1000バイトのバイナリ列だけのテーブルを作ってみます。

db1=# CREATE TABLE tbl2 (id int primary key, dat bytea);
CREATE TABLE
db1=# INSERT INTO tbl2 SELECT g, pg_read_binary_file('/dev/urandom', 0, 1000) FROM generate_series(1, 100) g;
INSERT 0 100

db1=# SELECT oid, relname, relfilenode, reltoastrelid FROM pg_class WHERE relname ~ 'tbl2' OR oid = 25832;
  oid  |    relname     | relfilenode | reltoastrelid
-------+----------------+-------------+---------------
 25832 | pg_toast_25829 |       25836 |             0
 25834 | tbl2_pkey      |       25837 |             0
 25829 | tbl2           |       25839 |         25832
(3 rows)

db1=# CHECKPOINT ;
CHECKPOINT
db1=# \q
[postgres@rocky9 ~]$ ls -l $PGDATA/orioledb_data/16384/
(中略)
-rw-------. 1 postgres postgres   131072 Mar 19 10:53 25837
-rw-------. 1 postgres postgres       40 Mar 19 10:53 25837-74.map
→ tbl2_pkey のみ 128KB、toastファイル無し

今度は toast のファイルは作られませんでした。(整数 4バイト + 1000バイト + メタデータ)× 100行ですので、128KB は順当なサイズです。

これに 2100バイトのバイト列のデータを 100行追加します。

db1=# INSERT INTO tbl2 SELECT g, pg_read_binary_file('/dev/urandom', 0, 2100) FROM generate_series(101, 200) g;
INSERT 0 100

まだ toast ファイルは現れません。

[postgres@rocky9 ~]$ ls -l $PGDATA/orioledb_data/16384/
(中略)
-rw-------. 1 postgres postgres   417792 Mar 19 11:03 25837
-rw-------. 1 postgres postgres       40 Mar 19 10:53 25837-74.map
-rw-------. 1 postgres postgres       48 Mar 19 11:03 25837-76.map
-rw-------. 1 postgres postgres        8 Mar 19 11:03 25837-76.tmp

さらに 3000バイトのバイト列のデータを足すと・・・

db1=# INSERT INTO tbl2 SELECT g, pg_read_binary_file('/dev/urandom', 0, 3000) FROM generate_series(201, 300) g;
INSERT 0 100

今度は toastファイルが出現しました。データサイズから推測すると、新たに投入された行だけ toast ファイルに格納されているように見えます。

[postgres@rocky9 ~]$ ls -l $PGDATA/orioledb_data/16384/
(中略)
-rw-------. 1 postgres postgres   417792 Mar 19 11:05 25836
-rw-------. 1 postgres postgres       40 Mar 19 11:05 25836-77.map
-rw-------. 1 postgres postgres   425984 Mar 19 11:05 25837
-rw-------. 1 postgres postgres       40 Mar 19 10:53 25837-74.map
-rw-------. 1 postgres postgres        8 Mar 19 11:03 25837-76.tmp
-rw-------. 1 postgres postgres       48 Mar 19 11:05 25837-77.map
-rw-------. 1 postgres postgres        8 Mar 19 11:05 25837-77.tmp

この動作確認の結果からはtoast使用の閾値は 2100バイト~3000バイトの間くらいということになります。ソースコードを眺めたところでは、インデックスに格納できる1エントリサイズ(O_BTREE_MAX_TUPLE_SIZE = (1ページ 8KB - ヘッダサイズ)÷ 3 = 2.6KB くらい)が閾値のようです。

データ圧縮を使ってみる

いよいよデータ圧縮を使ってみます。
データ圧縮を有効にするには postgresql.conf で以下の設定パラメータを有効にして 1以上の値を指定する方法と CREATE TABLE および二次インデックスの CREATE INDEX でストレージパラメータ compress、 toast_compress、 primary_compress を指定する方法があります。デフォルトは -1 で圧縮無効を意味します。

orioledb.default_compress = -1
orioledb.default_primary_compress = -1
orioledb.default_toast_compress = -1

指定する値は zstd 圧縮ライブラリの圧縮レベル値です。圧縮レベルとしては 1 から 22 が指定可能です。0 は zstdライブラリのデフォルトの圧縮レベルという意味になります。

3つの設定項目のうち、compress は primary と toast の両方についての指定を意味します。primary と toast で別の指定を与えたいときには compress は指定せず、primary_compress、toast_compress の指定を使用してください。

さて、OrioleDB beta9 で手元で検証しました結果、設定ファイルによる指定はうまく働かないことがあるようで、いまひとつ信用できません。ここでは、ストレージパラメータで指定することにします。tbl1 と同定義の tbl3 に「 WITH (compress = 1)」指定を付けて 、同データを投入します。これまで同様にテーブルのファイルサイズを調べてみます。

db1=# CREATE TABLE tbl3 (id int primary key, c1 int, ts timestamp, lob bytea) WITH (compress = 1);
CREATE TABLE
db1=# INSERT INTO tbl3 SELECT g, (random()*10)::int, now() + (g || 'min')::interval,  pg_read_binary_file('/dev/urandom', 0, 3000) FROM generate_series(1, 100) g;
INSERT 0 100

これまで同様に対応するファイルを調べて、CHECKPOINTをかけて、ファイルサイズを調べます。同様に圧縮レベル 20 でもやってみます。ファイルサイズは以下のようになりました。

圧縮レベル primaryサイズ(byte) toastサイズ(byte)
-1 8,192 417,792
1 1,536 333,312
20 1,536 333,312

連番整数とランダムバイトの列からなるテーブルについて、圧縮レベル 1 でも相当程度圧縮されて、そこから圧縮レベルを上げてもこれ以上改善しない、という結果です。

圧縮指定の確認

テーブルが圧縮されているかどうかは、OrioleDB固有のシステムビュー orioledb_table から確認できます。

db1=# SELECT * FROM orioledb_table WHERE reloid = 'tbl3'::regclass;
 datoid | reloid | relnode |                                     description
--------+--------+---------+--------------------------------------------------------------------------------------
  16384 |  25840 |   25850 | Compress = 1, Primary compress = 1, TOAST compress = 1                              +
        |        |         |  Column |                        Type | Collation | Nullable | Droped | Compression +
        |        |         |      id |                     integer |    (null) |    false |  false |             +
        |        |         |      c1 |                     integer |    (null) |     true |  false |             +
        |        |         |      ts | timestamp without time zone |    (null) |     true |  false |             +
        |        |         |     lob |                       bytea |    (null) |     true |  false |             +
        |        |         |
(1 row)

pgbench のテーブルでデータ圧縮を使うと?

これは結果だけ紹介します。標準シナリオでスケール -s 10 相当のテーブル群を、テーブル作成時にストレージオプションを与えるために自前の初期化スクリプトで作成して、「pgbench -t 1000 -c 256 -n db1」で実行しました。転送データ量に影響があるかを調べるため、非同期ストリーミングレプリケーションも有効にしています。

圧縮レベル TPS ファイルサイズ
-1 311.1 290MB
3 302.8 48MB
10 267.0 51MB

ファイルサイズは pgbench実行後の pgbench_accounts テーブルの primaryファイルのサイズです。本テーブルには toast は作られませんでした。

ファイルサイズについては前節の検証と傾向が同じです。低圧縮レベルで相当に圧縮されて、それを更に高圧縮レベルに変えても効果は小さいです。pgbench の pgbench_accounts テーブルには空白文字だけの char(84) 型の列があるため、いかにも圧縮が効きそうなデータです。

トランザクション性能への影響は、高圧縮レベル(10)にすると -15% ほど劣化しました。低圧縮レベル(3)では -3%くらいです。圧縮が効きそうなテーブルについて、低い圧縮レベルを指定しておくのがリーズナブルであるように見えます。

なお、ストリーミングレプリケーションのデータ転送量は圧縮の有無に影響を受けませんでした。圧縮はテーブルのデータをファイルに読み書きするとき適用されるのみでした。WAL 書き込み内容には影響しません。

まとめ

OrioleDB のファイル格納とブロックレベル圧縮機能を見てきました。
zstdライブラリによる圧縮は、データサイズを小さく保つのに有益で、小さめの圧縮レベルを指定しておけば損になることはなさそうです。
一方、細かいところにバグと思われる挙動がいくつかありました。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?