16
6

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Oracle Cloud: 超高パフォーマンス・ボリュームで 100万IOPS, 40Gbpsスループット出してみてみた

Last updated at Posted at 2023-07-04

前回行ったボリュームあたり最大 300,000 IOPS および 2,680 MB/秒のスループットを備えた Ultra High Performance Volumes (UHP) ブロック ボリュームを複数ストライプ化すれば、よりパフォーマンスが出る。
ということで今回は、最大スループット 40Gbps の VM.Optimized3.Flex シェイプへ ストライプ化した複数の UHPボリュームをアタッチし、fioコマンドでパフォーマンス・テストしてみてみます。

■ コンピュート・インスタンス作成

超高パフォーマンス(VPU30以上)ブロック・ボリュームのパフォーマンスを出力するには、インスタンス・シェイプのパフォーマンスの詳細を参考にコンピュート・インスタンスへ次の設定をします。

・ブロック・ボリューム管理プラグインON: iSCSIアタッチメント・タイプを使用してアタッチされた超高パフォーマンスで構成されたボリュームに必要です。
・最大ネットワーク帯域幅: 選択シェイプの最大帯域幅の値以上のOCPUを選択
・超高パフォーマンス(UHP)のサポート: UHPをサポートするOCPU数以上を選択

・すべてのシェイプの参照画面
01_コンピュート作成01.jpg

・コンピュート・インスタンスの作成画面
01_コンピュート作成02.jpg

1) コンピュート・インスタンスの作成
今回、VM.Optimized3.Flexを使用して UHPブロック・ボリュームのパフォーマンスを最大にするよう次の設定をします。

・Shape: VM.Optimized3.Flex
・OCPUの数: 10にして ネットワーク帯域幅が最大値 40Gbps になるように設定
・ブロック・ボリューム管理: チェックしてUHPブロック。ボリュームを有効化

2) 作成確認
01_コンピュート作成03.jpg

■ ブロック・ボリューム作成とアタッチ

● ブロック・ボリューム作成

1) ブロック・ボリューム作成
VPUのパフォーマンスの特性を参照してブロック・ボリュームのパフォーマンスが最大になるように設定します。
今回は 8つのブロック・ボリュームで 1,000,000 IOPSになるように 次のように設定します。

・VPU/GB: 50
・ボリューム・サイズ(GB): 1,042
・ボリューム当たりの最大IOPS: 125,000

02_Block-Volume02.jpg

1) 8個ブロック・ボリューム作成
同様にブロック・ボリュームを8個作成します。
02_Block-Volume03.jpg

● ブロック・ボリュームのアタッチ

作成した8つのブロック・ボリュームをコンピュート・インスタンスにアタッチします。
Oracle Cloud Agentバージョン1.39未満のインスタンスでは、マルチパスの複数の超高パフォーマンス・ボリュームがサポートされていないため、マルチパス項目は「いいえ」になります。
03_Block-Volumeアタッチ02.jpg

■ 論理ボリューム(LV)作成

● 物理ボリューム(PV)確認

sdb - sdi までの8つのボリュームが追加されていることを確認できます。

1) lsblk確認

[root@uhp-inst ~]# lsblk
	NAME               MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
	sda                  8:0    0 46.6G  0 disk
	├─sda1               8:1    0  100M  0 part /boot/efi
	├─sda2               8:2    0    1G  0 part /boot
	└─sda3               8:3    0 45.5G  0 part
	  ├─ocivolume-root 252:0    0 35.5G  0 lvm  /
	  └─ocivolume-oled 252:1    0   10G  0 lvm  /var/oled
	sdb                  8:16   0  960G  0 disk
	sdc                  8:32   0  960G  0 disk
	sdd                  8:48   0  960G  0 disk
	sde                  8:64   0  960G  0 disk
	sdf                  8:80   0  960G  0 disk
	sdg                  8:96   0  960G  0 disk
	sdh                  8:112  0  960G  0 disk
	sdi                  8:128  0  960G  0 disk

2) pvs 確認

[root@uhp-inst ~]#  pvs -a
  PV         VG        Fmt  Attr PSize  PFree
  /dev/sda1                 ---      0     0
  /dev/sda2                 ---      0     0
  /dev/sda3  ocivolume lvm2 a--  45.47g    0
  /dev/sdb                  ---      0     0
  /dev/sdc                  ---      0     0
  /dev/sdd                  ---      0     0
  /dev/sde                  ---      0     0
  /dev/sdf                  ---      0     0
  /dev/sdg                  ---      0     0
  /dev/sdh                  ---      0     0
  /dev/sdi                  ---      0     0

● 物理ボリューム(PV) 作成

1) 物理ボリューム(PV)を作成
-vオプションを指定してコマンドを実行し、詳細情報を取得します。

[root@uhp-inst ~]# pvcreate -v /dev/sd{b,c,d,e,f,g,h,i}
	  Wiping signatures on new PV /dev/sdb.
	  Found existing signature on /dev/sdb at offset 510: LABEL="(null)" UUID="(null)" TYPE="dos" USAGE="partition table"
	WARNING: dos signature detected on /dev/sdb at offset 510. Wipe it? [y/n]: y
	  Accepted input: [y]
	  Wiping dos signature on /dev/sdb.
	  Wiping signatures on new PV /dev/sdc.
	  Found existing signature on /dev/sdc at offset 510: LABEL="(null)" UUID="(null)" TYPE="dos" USAGE="partition table"
	WARNING: dos signature detected on /dev/sdc at offset 510. Wipe it? [y/n]: y
	  Accepted input: [y]
	  Wiping dos signature on /dev/sdc.
	  Wiping signatures on new PV /dev/sdd.
	  Found existing signature on /dev/sdd at offset 510: LABEL="(null)" UUID="(null)" TYPE="dos" USAGE="partition table"
	WARNING: dos signature detected on /dev/sdd at offset 510. Wipe it? [y/n]: y
	  Accepted input: [y]
	  Wiping dos signature on /dev/sdd.
	  Wiping signatures on new PV /dev/sde.
	  Found existing signature on /dev/sde at offset 510: LABEL="(null)" UUID="(null)" TYPE="dos" USAGE="partition table"
	WARNING: dos signature detected on /dev/sde at offset 510. Wipe it? [y/n]: y
	  Accepted input: [y]
	  Wiping dos signature on /dev/sde.
	  Wiping signatures on new PV /dev/sdf.
	  Found existing signature on /dev/sdf at offset 510: LABEL="(null)" UUID="(null)" TYPE="dos" USAGE="partition table"
	WARNING: dos signature detected on /dev/sdf at offset 510. Wipe it? [y/n]: y
	  Accepted input: [y]
	  Wiping dos signature on /dev/sdf.
	  Wiping signatures on new PV /dev/sdg.
	  Found existing signature on /dev/sdg at offset 510: LABEL="(null)" UUID="(null)" TYPE="dos" USAGE="partition table"
	WARNING: dos signature detected on /dev/sdg at offset 510. Wipe it? [y/n]: y
	  Accepted input: [y]
	  Wiping dos signature on /dev/sdg.
	  Wiping signatures on new PV /dev/sdh.
	  Found existing signature on /dev/sdh at offset 510: LABEL="(null)" UUID="(null)" TYPE="dos" USAGE="partition table"
	WARNING: dos signature detected on /dev/sdh at offset 510. Wipe it? [y/n]: y
	  Accepted input: [y]
	  Wiping dos signature on /dev/sdh.
	  Wiping signatures on new PV /dev/sdi.
	  Found existing signature on /dev/sdi at offset 510: LABEL="(null)" UUID="(null)" TYPE="dos" USAGE="partition table"
	WARNING: dos signature detected on /dev/sdi at offset 510. Wipe it? [y/n]: y
	  Accepted input: [y]
	  Wiping dos signature on /dev/sdi.
	  Set up physical volume for "/dev/sdb" with 2013265920 available sectors.
	  Zeroing start of device /dev/sdb.
	  Writing physical volume data to disk "/dev/sdb".
	  Physical volume "/dev/sdb" successfully created.
	  Set up physical volume for "/dev/sdc" with 2013265920 available sectors.
	  Zeroing start of device /dev/sdc.
	  Writing physical volume data to disk "/dev/sdc".
	  Physical volume "/dev/sdc" successfully created.
	  Set up physical volume for "/dev/sdd" with 2013265920 available sectors.
	  Zeroing start of device /dev/sdd.
	  Writing physical volume data to disk "/dev/sdd".
	  Physical volume "/dev/sdd" successfully created.
	  Set up physical volume for "/dev/sde" with 2013265920 available sectors.
	  Zeroing start of device /dev/sde.
	  Writing physical volume data to disk "/dev/sde".
	  Physical volume "/dev/sde" successfully created.
	  Set up physical volume for "/dev/sdf" with 2013265920 available sectors.
	  Zeroing start of device /dev/sdf.
	  Writing physical volume data to disk "/dev/sdf".
	  Physical volume "/dev/sdf" successfully created.
	  Set up physical volume for "/dev/sdg" with 2013265920 available sectors.
	  Zeroing start of device /dev/sdg.
	  Writing physical volume data to disk "/dev/sdg".
	  Physical volume "/dev/sdg" successfully created.
	  Set up physical volume for "/dev/sdh" with 2013265920 available sectors.
	  Zeroing start of device /dev/sdh.
	  Writing physical volume data to disk "/dev/sdh".
	  Physical volume "/dev/sdh" successfully created.
	  Set up physical volume for "/dev/sdi" with 2013265920 available sectors.
	  Zeroing start of device /dev/sdi.
	  Writing physical volume data to disk "/dev/sdi".
	  Physical volume "/dev/sdi" successfully created.

2) PV作成確認

[root@uhp-inst ~]# pvs
	PV         VG        Fmt  Attr PSize   PFree
	/dev/sda3  ocivolume lvm2 a--   45.47g      0
	/dev/sdb             lvm2 ---  1.02t 1.02t
	/dev/sdc             lvm2 ---  1.02t 1.02t
	/dev/sdd             lvm2 ---  1.02t 1.02t
	/dev/sde             lvm2 ---  1.02t 1.02t
	/dev/sdf             lvm2 ---  1.02t 1.02t
	/dev/sdg             lvm2 ---  1.02t 1.02t
	/dev/sdh             lvm2 ---  1.02t 1.02t
	/dev/sdi             lvm2 ---  1.02t 1.02t

● ボリューム・グループ(VG)

1) ボリュームグループ volgroup01 を作成
新しく作成した物理ボリュームを使用してボリューム・グループ(VG)を作成します。

[root@uhp-inst ~]# vgcreate -v volgroup01 /dev/sd{b,c,d,e,f,g,h,i}
  Wiping signatures on new PV /dev/sdb.
  Wiping signatures on new PV /dev/sdc.
  Wiping signatures on new PV /dev/sdd.
  Wiping signatures on new PV /dev/sde.
  Wiping signatures on new PV /dev/sdf.
  Wiping signatures on new PV /dev/sdg.
  Wiping signatures on new PV /dev/sdh.
  Wiping signatures on new PV /dev/sdi.
  Adding physical volume '/dev/sdb' to volume group 'volgroup01'
  Adding physical volume '/dev/sdc' to volume group 'volgroup01'
  Adding physical volume '/dev/sdd' to volume group 'volgroup01'
  Adding physical volume '/dev/sde' to volume group 'volgroup01'
  Adding physical volume '/dev/sdf' to volume group 'volgroup01'
  Adding physical volume '/dev/sdg' to volume group 'volgroup01'
  Adding physical volume '/dev/sdh' to volume group 'volgroup01'
  Adding physical volume '/dev/sdi' to volume group 'volgroup01'
  Creating volume group backup "/etc/lvm/backup/volgroup01" (seqno 1).
  Volume group "volgroup01" successfully created

2) VG作成確認
vgs コマンドを使用すると、作成したボリュームグループの属性を表示できます。

[root@uhp-inst ~]# vgs
  VG         #PV #LV #SN Attr   VSize  VFree
  ocivolume    1   2   0 wz--n- 45.47g    0
  volgroup01   8   1   0 wz--n-  8.14t    0

■ ストライプ化論理ボリューム(LV)作成

1) 論理ボリューム(LV)作成

ストライプサイズが 4 キロバイトの 8 つのストライプがある、全てのボリューム・サイズを使用するリニア論理ボリューム(LV)を作成します。

[root@uhp-inst ~]# lvcreate -v -i 8 -I 4 -l 100%FREE -n striped_logical_volume volgroup01
  Converted 100% of FREE (1966072) extents into 1966072 (with mimages 1 and stripes 8 for segtype striped).
  Creating logical volume striped_logical_volume
  Archiving volume group "volgroup01" metadata (seqno 3).
  Activating logical volume volgroup01/striped_logical_volume.
  activation/volume_list configuration setting not defined: Checking only host tags for volgroup01/striped_logical_volume.
  Creating volgroup01-striped_logical_volume
  Loading table for volgroup01-striped_logical_volume (252:2).
  Resuming volgroup01-striped_logical_volume (252:2).
  Wiping known signatures on logical volume volgroup01/striped_logical_volume.
  Initializing 4.00 KiB of logical volume volgroup01/striped_logical_volume with value 0.
  Logical volume "striped_logical_volume" created.
  Creating volume group backup "/etc/lvm/backup/volgroup01" (seqno 4).

2) LV作成確認
volgroup01 VG内に含まれるすべての論理ボリュームが表示されます。

[root@uhp-inst ~]# lvdisplay /dev/volgroup01
  --- Logical volume ---
  LV Path                /dev/volgroup01/striped_logical_volume
  LV Name                striped_logical_volume
  VG Name                volgroup01
  LV UUID                ZEWhyl-4DGf-k04S-sYXh-s5Ac-p5SB-c9lTzw
  LV Write Access        read/write
  LV Creation host, time uhp-inst, 2023-06-26 15:26:02 +0000
  LV Status              available
  # open                 0
  LV Size                <7.50 TiB
  Current LE             1966072
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           252:2

3) LVタイプ表示

[root@uhp-inst ~]# lvs -o name,segtype /dev/volgroup01/striped_logical_volume
  LV                     Type
  striped_logical_volume striped

■ FIOコマンド使用してブロック・ボリューム・パフォーマンス・テスト

Linuxベース・インスタンスでブロック・ボリューム・パフォーマンス・テストを行うためのサンプルFIOコマンドを参照して FIOコマンドで IOPSとスループットのパフォーマンス・テストをします。

● FIO インストール

1) FIO インストール

[root@uhp-inst ~]# sudo yum install php-cli fio gnuplot -y
	This system is receiving updates from OSMS server.
	Last metadata expiration check: 2:21:20 ago on Fri 16 Jun 2023 11:18:51 AM GMT.
	Dependencies resolved.
	================================================================================================================================================
	Package                          Architecture      Version                                           Repository                           Size
	================================================================================================================================================
	Installing:
	fio                              x86_64            3.19-4.el8                                        ol8_appstream-x86_64                538 k
	gnuplot                          x86_64            5.2.4-3.el8                                       ol8_appstream-x86_64                911 k
	php-cli                          x86_64            7.2.24-1.module+el8.2.0+5510+6771133c             ol8_appstream-x86_64                3.1 M
	Installing dependencies:

	・・・
	Complete!

2) FIO インストール確認

[root@uhp-inst ~]# fio -h
fio-3.19
fio [options] [job options] <job file(s)>
  --debug=options	Enable debug logging. May be one/more of:
			process,file,io,mem,blktrace,verify,random,parse,
			diskutil,job,mutex,profile,time,net,rate,compress,
			steadystate,helperthread,zbd
  --parse-only		Parse options only, don't start any IO
  --merge-blktrace-only	Merge blktraces only, don't start any IO
  --output		Write output to file
  --bandwidth-log	Generate aggregate bandwidth logs
  --minimal		Minimal (terse) output
  --output-format=type	Output format (terse,json,json+,normal)
  --terse-version=type	Set terse version output format (default 3, or 2 or 4)
  --version		Print version info and exit
  --help		Print this page
  --cpuclock-test	Perform test/validation of CPU clock
  --crctest=[type]	Test speed of checksum functions
  --cmdhelp=cmd		Print command help, "all" for all of them
  --enghelp=engine	Print ioengine help, or list available ioengines
  --enghelp=engine,cmd	Print help for an ioengine cmd
  --showcmd		Turn a job file into command line options
  --eta=when		When ETA estimate should be printed
            		May be "always", "never" or "auto"
  --eta-newline=t	Force a new line for every 't' period passed
  --status-interval=t	Force full status dump every 't' period passed
  --readonly		Turn on safety read-only checks, preventing writes
  --section=name	Only run specified section in job file, multiple sections can be specified
  --alloc-size=kb	Set smalloc pool to this size in kb (def 16384)
  --warnings-fatal	Fio parser warnings are fatal
  --max-jobs=nr		Maximum number of threads/processes to support
  --server=args		Start a backend fio server
  --daemonize=pidfile	Background fio server, write pid to file
  --client=hostname	Talk to remote backend(s) fio server at hostname
  --remote-config=file	Tell fio server to load this local job file
  --idle-prof=option	Report cpu idleness on a system or percpu basis
			(option=system,percpu) or run unit work
			calibration only (option=calibrate)
  --inflate-log=log	Inflate and output compressed log
  --trigger-file=file	Execute trigger cmd when file exists
  --trigger-timeout=t	Execute trigger at this time
  --trigger=cmd		Set this command as local trigger
  --trigger-remote=cmd	Set this command as remote trigger
  --aux-path=path	Use this path for fio state generated files

Fio was written by Jens Axboe <axboe@kernel.dk>

● IOPS パフォーマンス・テスト

IOPSパフォーマンスをテストするには、次のFIOサンプル・コマンドを使用します。コマンドを直接実行することも、コマンドを使用してジョブ・ファイルを作成してからそのジョブ・ファイルを実行することもできます。

FIO実行するときは--numjobs オプションを使用して、ストライプしているデバイス(/dev/sd?)の数に応じて並列度を上げて実行します。

・ Sequential Reads テスト

データベース・ワークロードなど、順次アクセス・パターンを利用できるワークロードに対しては、順次読取りをテストすることにより、このパターンのパフォーマンスを確認できます。
順次読取りをテストするには、次のコマンドを実行します:

[root@uhp-inst ~]#  fio --filename=/dev/volgroup01/striped_logical_volume --direct=1 --rw=read --bs=4k --ioengine=libaio --iodepth=256 --runtime=120 --numjobs=4 --time_based --group_reporting --name=iops-test-job --eta-newline=1 --readonly
iops-test-job: (g=0): rw=read, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=256
...
fio-3.19
Starting 4 processes
Jobs: 4 (f=4): [R(4)][2.5%][r=3241MiB/s][r=830k IOPS][eta 01m:58s]
Jobs: 4 (f=4): [R(4)][3.3%][r=3262MiB/s][r=835k IOPS][eta 01m:57s]
Jobs: 4 (f=4): [R(4)][4.1%][r=3241MiB/s][r=830k IOPS][eta 01m:56s]
Jobs: 4 (f=4): [R(4)][5.0%][r=3290MiB/s][r=842k IOPS][eta 01m:55s]
Jobs: 4 (f=4): [R(4)][5.8%][r=3279MiB/s][r=839k IOPS][eta 01m:54s]
Jobs: 4 (f=4): [R(4)][6.6%][r=3229MiB/s][r=827k IOPS][eta 01m:53s]
Jobs: 4 (f=4): [R(4)][7.4%][r=3287MiB/s][r=842k IOPS][eta 01m:52s]
Jobs: 4 (f=4): [R(4)][8.3%][r=3243MiB/s][r=830k IOPS][eta 01m:51s]
Jobs: 4 (f=4): [R(4)][9.1%][r=3245MiB/s][r=831k IOPS][eta 01m:50s]
Jobs: 4 (f=4): [R(4)][9.9%][r=3292MiB/s][r=843k IOPS][eta 01m:49s]
Jobs: 4 (f=4): [R(4)][10.7%][r=3253MiB/s][r=833k IOPS][eta 01m:48s]
Jobs: 4 (f=4): [R(4)][11.6%][r=3300MiB/s][r=845k IOPS][eta 01m:47s]
Jobs: 4 (f=4): [R(4)][12.4%][r=3257MiB/s][r=834k IOPS][eta 01m:46s]
Jobs: 4 (f=4): [R(4)][13.2%][r=3315MiB/s][r=849k IOPS][eta 01m:45s]
Jobs: 4 (f=4): [R(4)][14.0%][r=3323MiB/s][r=851k IOPS][eta 01m:44s]
Jobs: 4 (f=4): [R(4)][14.9%][r=3205MiB/s][r=821k IOPS][eta 01m:43s]
Jobs: 4 (f=4): [R(4)][15.7%][r=3105MiB/s][r=795k IOPS][eta 01m:42s]
Jobs: 4 (f=4): [R(4)][16.5%][r=3192MiB/s][r=817k IOPS][eta 01m:41s]
Jobs: 4 (f=4): [R(4)][17.4%][r=3208MiB/s][r=821k IOPS][eta 01m:40s]
Jobs: 4 (f=4): [R(4)][18.2%][r=3228MiB/s][r=826k IOPS][eta 01m:39s]
Jobs: 4 (f=4): [R(4)][19.8%][r=3182MiB/s][r=815k IOPS][eta 01m:37s]
Jobs: 4 (f=4): [R(4)][20.7%][r=3208MiB/s][r=821k IOPS][eta 01m:36s]
Jobs: 4 (f=4): [R(4)][21.5%][r=3178MiB/s][r=814k IOPS][eta 01m:35s]
Jobs: 4 (f=4): [R(4)][22.3%][r=3066MiB/s][r=785k IOPS][eta 01m:34s]
Jobs: 4 (f=4): [R(4)][23.1%][r=3212MiB/s][r=822k IOPS][eta 01m:33s]
Jobs: 4 (f=4): [R(4)][24.0%][r=3204MiB/s][r=820k IOPS][eta 01m:32s]
Jobs: 4 (f=4): [R(4)][24.8%][r=3187MiB/s][r=816k IOPS][eta 01m:31s]
Jobs: 4 (f=4): [R(4)][25.6%][r=3147MiB/s][r=806k IOPS][eta 01m:30s]
Jobs: 4 (f=4): [R(4)][26.4%][r=3149MiB/s][r=806k IOPS][eta 01m:29s]
Jobs: 4 (f=4): [R(4)][27.3%][r=3180MiB/s][r=814k IOPS][eta 01m:28s]
Jobs: 4 (f=4): [R(4)][28.9%][r=3196MiB/s][r=818k IOPS][eta 01m:26s]
Jobs: 4 (f=4): [R(4)][29.8%][r=3318MiB/s][r=849k IOPS][eta 01m:25s]
Jobs: 4 (f=4): [R(4)][30.6%][r=3448MiB/s][r=883k IOPS][eta 01m:24s]
Jobs: 4 (f=4): [R(4)][31.4%][r=3569MiB/s][r=914k IOPS][eta 01m:23s]
Jobs: 4 (f=4): [R(4)][32.2%][r=3565MiB/s][r=913k IOPS][eta 01m:22s]
Jobs: 4 (f=4): [R(4)][33.1%][r=3563MiB/s][r=912k IOPS][eta 01m:21s]
Jobs: 4 (f=4): [R(4)][33.9%][r=3584MiB/s][r=917k IOPS][eta 01m:20s]
Jobs: 4 (f=4): [R(4)][34.7%][r=3744MiB/s][r=958k IOPS][eta 01m:19s]
Jobs: 4 (f=4): [R(4)][36.4%][r=3687MiB/s][r=944k IOPS][eta 01m:17s]
Jobs: 4 (f=4): [R(4)][37.2%][r=3739MiB/s][r=957k IOPS][eta 01m:16s]
Jobs: 4 (f=4): [R(4)][38.0%][r=3677MiB/s][r=941k IOPS][eta 01m:15s]
Jobs: 4 (f=4): [R(4)][38.8%][r=3497MiB/s][r=895k IOPS][eta 01m:14s]
Jobs: 4 (f=4): [R(4)][39.7%][r=3485MiB/s][r=892k IOPS][eta 01m:13s]
Jobs: 4 (f=4): [R(4)][40.5%][r=3504MiB/s][r=897k IOPS][eta 01m:12s]
Jobs: 4 (f=4): [R(4)][41.3%][r=3550MiB/s][r=909k IOPS][eta 01m:11s]
Jobs: 4 (f=4): [R(4)][42.1%][r=3522MiB/s][r=902k IOPS][eta 01m:10s]
Jobs: 4 (f=4): [R(4)][43.0%][r=3496MiB/s][r=895k IOPS][eta 01m:09s]
Jobs: 4 (f=4): [R(4)][43.8%][r=3502MiB/s][r=897k IOPS][eta 01m:08s]
Jobs: 4 (f=4): [R(4)][44.6%][r=3572MiB/s][r=914k IOPS][eta 01m:07s]
Jobs: 4 (f=4): [R(4)][45.5%][r=3507MiB/s][r=898k IOPS][eta 01m:06s]
Jobs: 4 (f=4): [R(4)][46.3%][r=3505MiB/s][r=897k IOPS][eta 01m:05s]
Jobs: 4 (f=4): [R(4)][47.1%][r=3487MiB/s][r=893k IOPS][eta 01m:04s]
Jobs: 4 (f=4): [R(4)][47.9%][r=3557MiB/s][r=911k IOPS][eta 01m:03s]
Jobs: 4 (f=4): [R(4)][48.8%][r=3473MiB/s][r=889k IOPS][eta 01m:02s]
Jobs: 4 (f=4): [R(4)][49.6%][r=3482MiB/s][r=891k IOPS][eta 01m:01s]
Jobs: 4 (f=4): [R(4)][50.4%][r=3500MiB/s][r=896k IOPS][eta 01m:00s]
Jobs: 4 (f=4): [R(4)][51.2%][r=3524MiB/s][r=902k IOPS][eta 00m:59s]
Jobs: 4 (f=4): [R(4)][52.1%][r=3519MiB/s][r=901k IOPS][eta 00m:58s]
Jobs: 4 (f=4): [R(4)][52.9%][r=3532MiB/s][r=904k IOPS][eta 00m:57s]
Jobs: 4 (f=4): [R(4)][53.7%][r=3583MiB/s][r=917k IOPS][eta 00m:56s]
Jobs: 4 (f=4): [R(4)][54.5%][r=3504MiB/s][r=897k IOPS][eta 00m:55s]
Jobs: 4 (f=4): [R(4)][55.4%][r=3619MiB/s][r=926k IOPS][eta 00m:54s]
Jobs: 4 (f=4): [R(4)][57.0%][r=3510MiB/s][r=899k IOPS][eta 00m:52s]
Jobs: 4 (f=4): [R(4)][57.9%][r=3572MiB/s][r=914k IOPS][eta 00m:51s]
Jobs: 4 (f=4): [R(4)][58.7%][r=3553MiB/s][r=910k IOPS][eta 00m:50s]
Jobs: 4 (f=4): [R(4)][59.5%][r=3618MiB/s][r=926k IOPS][eta 00m:49s]
Jobs: 4 (f=4): [R(4)][60.3%][r=3518MiB/s][r=901k IOPS][eta 00m:48s]
Jobs: 4 (f=4): [R(4)][61.2%][r=3479MiB/s][r=891k IOPS][eta 00m:47s]
Jobs: 4 (f=4): [R(4)][62.0%][r=3473MiB/s][r=889k IOPS][eta 00m:46s]
Jobs: 4 (f=4): [R(4)][62.8%][r=3356MiB/s][r=859k IOPS][eta 00m:45s]
Jobs: 4 (f=4): [R(4)][63.6%][r=3460MiB/s][r=886k IOPS][eta 00m:44s]
Jobs: 4 (f=4): [R(4)][64.5%][r=3594MiB/s][r=920k IOPS][eta 00m:43s]
Jobs: 4 (f=4): [R(4)][65.3%][r=3511MiB/s][r=899k IOPS][eta 00m:42s]
Jobs: 4 (f=4): [R(4)][66.1%][r=3412MiB/s][r=873k IOPS][eta 00m:41s]
Jobs: 4 (f=4): [R(4)][66.9%][r=3385MiB/s][r=867k IOPS][eta 00m:40s]
Jobs: 4 (f=4): [R(4)][67.8%][r=3445MiB/s][r=882k IOPS][eta 00m:39s]
Jobs: 4 (f=4): [R(4)][68.6%][r=3480MiB/s][r=891k IOPS][eta 00m:38s]
Jobs: 4 (f=4): [R(4)][69.4%][r=3462MiB/s][r=886k IOPS][eta 00m:37s]
Jobs: 4 (f=4): [R(4)][70.2%][r=3481MiB/s][r=891k IOPS][eta 00m:36s]
Jobs: 4 (f=4): [R(4)][71.1%][r=3523MiB/s][r=902k IOPS][eta 00m:35s]
Jobs: 4 (f=4): [R(4)][71.9%][r=3532MiB/s][r=904k IOPS][eta 00m:34s]
Jobs: 4 (f=4): [R(4)][72.7%][r=3535MiB/s][r=905k IOPS][eta 00m:33s]
Jobs: 4 (f=4): [R(4)][73.6%][r=3519MiB/s][r=901k IOPS][eta 00m:32s]
Jobs: 4 (f=4): [R(4)][74.4%][r=3436MiB/s][r=880k IOPS][eta 00m:31s]
Jobs: 4 (f=4): [R(4)][75.2%][r=3487MiB/s][r=893k IOPS][eta 00m:30s]
Jobs: 4 (f=4): [R(4)][76.0%][r=3484MiB/s][r=892k IOPS][eta 00m:29s]
Jobs: 4 (f=4): [R(4)][76.9%][r=3400MiB/s][r=870k IOPS][eta 00m:28s]
Jobs: 4 (f=4): [R(4)][77.7%][r=3450MiB/s][r=883k IOPS][eta 00m:27s]
Jobs: 4 (f=4): [R(4)][79.2%][r=3507MiB/s][r=898k IOPS][eta 00m:25s]
Jobs: 4 (f=4): [R(4)][80.0%][r=3520MiB/s][r=901k IOPS][eta 00m:24s]
Jobs: 4 (f=4): [R(4)][81.7%][r=3570MiB/s][r=914k IOPS][eta 00m:22s]
Jobs: 4 (f=4): [R(4)][82.5%][r=3580MiB/s][r=916k IOPS][eta 00m:21s]
Jobs: 4 (f=4): [R(4)][83.3%][r=3561MiB/s][r=912k IOPS][eta 00m:20s]
Jobs: 4 (f=4): [R(4)][84.2%][r=3637MiB/s][r=931k IOPS][eta 00m:19s]
Jobs: 4 (f=4): [R(4)][85.0%][r=3625MiB/s][r=928k IOPS][eta 00m:18s]
Jobs: 4 (f=4): [R(4)][85.8%][r=3605MiB/s][r=923k IOPS][eta 00m:17s]
Jobs: 4 (f=4): [R(4)][86.7%][r=3657MiB/s][r=936k IOPS][eta 00m:16s]
Jobs: 4 (f=4): [R(4)][87.5%][r=3576MiB/s][r=915k IOPS][eta 00m:15s]
Jobs: 4 (f=4): [R(4)][88.3%][r=3618MiB/s][r=926k IOPS][eta 00m:14s]
Jobs: 4 (f=4): [R(4)][89.2%][r=3466MiB/s][r=887k IOPS][eta 00m:13s]
Jobs: 4 (f=4): [R(4)][90.8%][r=3480MiB/s][r=891k IOPS][eta 00m:11s]
Jobs: 4 (f=4): [R(4)][91.7%][r=3547MiB/s][r=908k IOPS][eta 00m:10s]
Jobs: 4 (f=4): [R(4)][92.5%][r=3473MiB/s][r=889k IOPS][eta 00m:09s]
Jobs: 4 (f=4): [R(4)][93.3%][r=3512MiB/s][r=899k IOPS][eta 00m:08s]
Jobs: 4 (f=4): [R(4)][94.2%][r=3484MiB/s][r=892k IOPS][eta 00m:07s]
Jobs: 4 (f=4): [R(4)][95.0%][r=3475MiB/s][r=890k IOPS][eta 00m:06s]
Jobs: 4 (f=4): [R(4)][95.8%][r=3448MiB/s][r=883k IOPS][eta 00m:05s]
Jobs: 4 (f=4): [R(4)][96.7%][r=3451MiB/s][r=884k IOPS][eta 00m:04s]
Jobs: 4 (f=4): [R(4)][97.5%][r=3431MiB/s][r=878k IOPS][eta 00m:03s]
Jobs: 4 (f=4): [R(4)][99.2%][r=3389MiB/s][r=868k IOPS][eta 00m:01s]
Jobs: 4 (f=4): [R(4)][100.0%][r=3426MiB/s][r=877k IOPS][eta 00m:00s]
iops-test-job: (groupid=0, jobs=4): err= 0: pid=7129: Tue Jul  4 15:24:11 2023
  read: IOPS=880k, BW=3436MiB/s (3603MB/s)(403GiB/120005msec)
    slat (nsec): min=1006, max=2272.4k, avg=2814.44, stdev=3393.01
    clat (usec): min=186, max=46583, avg=1160.85, stdev=725.86
     lat (usec): min=198, max=46586, avg=1163.76, stdev=725.68
    clat percentiles (usec):
     |  1.00th=[  474],  5.00th=[  578], 10.00th=[  644], 20.00th=[  742],
     | 30.00th=[  824], 40.00th=[  906], 50.00th=[  996], 60.00th=[ 1106],
     | 70.00th=[ 1237], 80.00th=[ 1450], 90.00th=[ 1795], 95.00th=[ 2147],
     | 99.00th=[ 3556], 99.50th=[ 5211], 99.90th=[ 9372], 99.95th=[10945],
     | 99.99th=[15401]
   bw (  MiB/s): min= 2676, max= 4003, per=100.00%, avg=3440.41, stdev=47.77, samples=956
   iops        : min=685082, max=1024820, avg=880746.17, stdev=12229.15, samples=956
  lat (usec)   : 250=0.01%, 500=1.65%, 750=19.32%, 1000=29.40%
  lat (msec)   : 2=43.06%, 4=5.77%, 10=0.73%, 20=0.07%, 50=0.01%
  cpu          : usr=18.04%, sys=64.94%, ctx=2642520, majf=0, minf=1080
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.1%
     issued rwts: total=105559843,0,0,0 short=0,0,0,0 dropped=0,0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=256

Run status group 0 (all jobs):
   READ: bw=3436MiB/s (3603MB/s), 3436MiB/s-3436MiB/s (3603MB/s-3603MB/s), io=403GiB (432GB), run=120005-120005msec

・ IOPS パフォーマンス・テスト結果

IOPS パフォーマンスは、次の iops 行を見ると、max=1024820 であることを確認できます。

   iops        : min=685082, max=1024820, avg=880746.17, stdev=12229.15, samples=956

● スループット・パフォーマンス・テスト

スループット・パフォーマンスをテストするには、次のFIOサンプル・コマンドを使用します。

・ Sequential Reads テスト

データベース・ワークロードなど、順次アクセス・パターンを利用できるワークロードに対しては、順次読取りをテストすることにより、このパターンのパフォーマンスを確認できます。
順次読取りをテストするには、次のコマンドを実行します:

[root@uhp-inst ~]# fio --filename=/dev/volgroup01/striped_logical_volume --direct=1 --rw=read --bs=64k --ioengine=libaio --iodepth=64 --runtime=120 --numjobs=4 --time_based --group_reporting --name=throughput-test-job --eta-newline=1 --readonly
throughput-test-job: (g=0): rw=read, bs=(R) 64.0KiB-64.0KiB, (W) 64.0KiB-64.0KiB, (T) 64.0KiB-64.0KiB, ioengine=libaio, iodepth=64
...
fio-3.19
Starting 4 processes
Jobs: 4 (f=4): [R(4)][2.5%][r=4403MiB/s][r=70.5k IOPS][eta 01m:58s]
Jobs: 4 (f=4): [R(4)][3.3%][r=4373MiB/s][r=69.0k IOPS][eta 01m:57s]
Jobs: 4 (f=4): [R(4)][4.1%][r=4530MiB/s][r=72.5k IOPS][eta 01m:56s]
Jobs: 4 (f=4): [R(4)][5.0%][r=4396MiB/s][r=70.3k IOPS][eta 01m:55s]
Jobs: 4 (f=4): [R(4)][5.8%][r=4517MiB/s][r=72.3k IOPS][eta 01m:54s]
Jobs: 4 (f=4): [R(4)][6.6%][r=4329MiB/s][r=69.3k IOPS][eta 01m:53s]
Jobs: 4 (f=4): [R(4)][7.4%][r=4446MiB/s][r=71.1k IOPS][eta 01m:52s]
Jobs: 4 (f=4): [R(4)][8.3%][r=4395MiB/s][r=70.3k IOPS][eta 01m:51s]
Jobs: 4 (f=4): [R(4)][9.1%][r=4482MiB/s][r=71.7k IOPS][eta 01m:50s]
Jobs: 4 (f=4): [R(4)][9.9%][r=4430MiB/s][r=70.9k IOPS][eta 01m:49s]
Jobs: 4 (f=4): [R(4)][10.7%][r=4314MiB/s][r=69.0k IOPS][eta 01m:48s]
Jobs: 4 (f=4): [R(4)][11.6%][r=4437MiB/s][r=70.0k IOPS][eta 01m:47s]
Jobs: 4 (f=4): [R(4)][13.2%][r=4511MiB/s][r=72.2k IOPS][eta 01m:45s]
Jobs: 4 (f=4): [R(4)][14.0%][r=4445MiB/s][r=71.1k IOPS][eta 01m:44s]
Jobs: 4 (f=4): [R(4)][14.9%][r=4370MiB/s][r=69.9k IOPS][eta 01m:43s]
Jobs: 4 (f=4): [R(4)][15.7%][r=4478MiB/s][r=71.6k IOPS][eta 01m:42s]
Jobs: 4 (f=4): [R(4)][16.5%][r=4616MiB/s][r=73.9k IOPS][eta 01m:41s]
Jobs: 4 (f=4): [R(4)][17.4%][r=4513MiB/s][r=72.2k IOPS][eta 01m:40s]
Jobs: 4 (f=4): [R(4)][18.2%][r=4455MiB/s][r=71.3k IOPS][eta 01m:39s]
Jobs: 4 (f=4): [R(4)][19.0%][r=4407MiB/s][r=70.5k IOPS][eta 01m:38s]
Jobs: 4 (f=4): [R(4)][19.8%][r=4400MiB/s][r=70.4k IOPS][eta 01m:37s]
Jobs: 4 (f=4): [R(4)][20.7%][r=4376MiB/s][r=70.0k IOPS][eta 01m:36s]
Jobs: 4 (f=4): [R(4)][21.5%][r=4423MiB/s][r=70.8k IOPS][eta 01m:35s]
Jobs: 4 (f=4): [R(4)][22.3%][r=4928MiB/s][r=78.8k IOPS][eta 01m:34s]
Jobs: 4 (f=4): [R(4)][23.1%][r=4832MiB/s][r=77.3k IOPS][eta 01m:33s]
Jobs: 4 (f=4): [R(4)][24.0%][r=4949MiB/s][r=79.2k IOPS][eta 01m:32s]
Jobs: 4 (f=4): [R(4)][24.8%][r=4834MiB/s][r=77.3k IOPS][eta 01m:31s]
Jobs: 4 (f=4): [R(4)][25.6%][r=4907MiB/s][r=78.5k IOPS][eta 01m:30s]
Jobs: 4 (f=4): [R(4)][26.4%][r=4869MiB/s][r=77.9k IOPS][eta 01m:29s]
Jobs: 4 (f=4): [R(4)][27.3%][r=4974MiB/s][r=79.6k IOPS][eta 01m:28s]
Jobs: 4 (f=4): [R(4)][28.1%][r=4649MiB/s][r=74.4k IOPS][eta 01m:27s]
Jobs: 4 (f=4): [R(4)][28.9%][r=4701MiB/s][r=75.2k IOPS][eta 01m:26s]
Jobs: 4 (f=4): [R(4)][29.8%][r=4770MiB/s][r=76.3k IOPS][eta 01m:25s]
Jobs: 4 (f=4): [R(4)][30.6%][r=4656MiB/s][r=74.5k IOPS][eta 01m:24s]
Jobs: 4 (f=4): [R(4)][31.4%][r=4768MiB/s][r=76.3k IOPS][eta 01m:23s]
Jobs: 4 (f=4): [R(4)][32.2%][r=4733MiB/s][r=75.7k IOPS][eta 01m:22s]
Jobs: 4 (f=4): [R(4)][33.1%][r=4623MiB/s][r=73.0k IOPS][eta 01m:21s]
Jobs: 4 (f=4): [R(4)][33.9%][r=4908MiB/s][r=78.5k IOPS][eta 01m:20s]
Jobs: 4 (f=4): [R(4)][34.7%][r=5040MiB/s][r=80.6k IOPS][eta 01m:19s]
Jobs: 4 (f=4): [R(4)][35.5%][r=4724MiB/s][r=75.6k IOPS][eta 01m:18s]
Jobs: 4 (f=4): [R(4)][36.4%][r=4716MiB/s][r=75.5k IOPS][eta 01m:17s]
Jobs: 4 (f=4): [R(4)][37.2%][r=4763MiB/s][r=76.2k IOPS][eta 01m:16s]
Jobs: 4 (f=4): [R(4)][38.0%][r=4756MiB/s][r=76.1k IOPS][eta 01m:15s]
Jobs: 4 (f=4): [R(4)][38.8%][r=4809MiB/s][r=76.9k IOPS][eta 01m:14s]
Jobs: 4 (f=4): [R(4)][39.7%][r=4858MiB/s][r=77.7k IOPS][eta 01m:13s]
Jobs: 4 (f=4): [R(4)][40.5%][r=4812MiB/s][r=76.0k IOPS][eta 01m:12s]
Jobs: 4 (f=4): [R(4)][41.3%][r=4976MiB/s][r=79.6k IOPS][eta 01m:11s]
Jobs: 4 (f=4): [R(4)][42.1%][r=4666MiB/s][r=74.7k IOPS][eta 01m:10s]
Jobs: 4 (f=4): [R(4)][43.0%][r=4633MiB/s][r=74.1k IOPS][eta 01m:09s]
Jobs: 4 (f=4): [R(4)][43.8%][r=4926MiB/s][r=78.8k IOPS][eta 01m:08s]
Jobs: 4 (f=4): [R(4)][44.6%][r=3790MiB/s][r=60.6k IOPS][eta 01m:07s]
Jobs: 4 (f=4): [R(4)][45.5%][r=4935MiB/s][r=78.0k IOPS][eta 01m:06s]
Jobs: 4 (f=4): [R(4)][46.3%][r=4783MiB/s][r=76.5k IOPS][eta 01m:05s]
Jobs: 4 (f=4): [R(4)][47.1%][r=4891MiB/s][r=78.3k IOPS][eta 01m:04s]
Jobs: 4 (f=4): [R(4)][48.8%][r=4822MiB/s][r=77.2k IOPS][eta 01m:02s]
Jobs: 4 (f=4): [R(4)][49.6%][r=4960MiB/s][r=79.4k IOPS][eta 01m:01s]
Jobs: 4 (f=4): [R(4)][50.4%][r=4667MiB/s][r=74.7k IOPS][eta 01m:00s]
Jobs: 4 (f=4): [R(4)][51.2%][r=4538MiB/s][r=72.6k IOPS][eta 00m:59s]
Jobs: 4 (f=4): [R(4)][52.1%][r=4658MiB/s][r=74.5k IOPS][eta 00m:58s]
Jobs: 4 (f=4): [R(4)][52.9%][r=4558MiB/s][r=72.9k IOPS][eta 00m:57s]
Jobs: 4 (f=4): [R(4)][53.7%][r=4570MiB/s][r=73.1k IOPS][eta 00m:56s]
Jobs: 4 (f=4): [R(4)][54.5%][r=4528MiB/s][r=72.4k IOPS][eta 00m:55s]
Jobs: 4 (f=4): [R(4)][55.4%][r=4723MiB/s][r=75.6k IOPS][eta 00m:54s]
Jobs: 4 (f=4): [R(4)][56.2%][r=4612MiB/s][r=73.8k IOPS][eta 00m:53s]
Jobs: 4 (f=4): [R(4)][57.0%][r=4762MiB/s][r=76.2k IOPS][eta 00m:52s]
Jobs: 4 (f=4): [R(4)][57.9%][r=4803MiB/s][r=76.8k IOPS][eta 00m:51s]
Jobs: 4 (f=4): [R(4)][58.7%][r=4865MiB/s][r=77.8k IOPS][eta 00m:50s]
Jobs: 4 (f=4): [R(4)][59.5%][r=4759MiB/s][r=76.1k IOPS][eta 00m:49s]
Jobs: 4 (f=4): [R(4)][60.3%][r=4591MiB/s][r=73.5k IOPS][eta 00m:48s]
Jobs: 4 (f=4): [R(4)][61.2%][r=5003MiB/s][r=80.0k IOPS][eta 00m:47s]
Jobs: 4 (f=4): [R(4)][62.0%][r=4905MiB/s][r=78.5k IOPS][eta 00m:46s]
Jobs: 4 (f=4): [R(4)][62.8%][r=4867MiB/s][r=77.9k IOPS][eta 00m:45s]
Jobs: 4 (f=4): [R(4)][63.6%][r=4772MiB/s][r=76.3k IOPS][eta 00m:44s]
Jobs: 4 (f=4): [R(4)][64.5%][r=3637MiB/s][r=58.2k IOPS][eta 00m:43s]
Jobs: 4 (f=4): [R(4)][65.3%][r=4921MiB/s][r=78.7k IOPS][eta 00m:42s]
Jobs: 4 (f=4): [R(4)][66.1%][r=4918MiB/s][r=78.7k IOPS][eta 00m:41s]
Jobs: 4 (f=4): [R(4)][66.9%][r=4925MiB/s][r=78.8k IOPS][eta 00m:40s]
Jobs: 4 (f=4): [R(4)][67.8%][r=4951MiB/s][r=79.2k IOPS][eta 00m:39s]
Jobs: 4 (f=4): [R(4)][68.6%][r=4904MiB/s][r=78.5k IOPS][eta 00m:38s]
Jobs: 4 (f=4): [R(4)][69.4%][r=4013MiB/s][r=64.2k IOPS][eta 00m:37s]
Jobs: 4 (f=4): [R(4)][70.2%][r=4933MiB/s][r=78.9k IOPS][eta 00m:36s]
Jobs: 4 (f=4): [R(4)][71.1%][r=5007MiB/s][r=80.1k IOPS][eta 00m:35s]
Jobs: 4 (f=4): [R(4)][71.9%][r=4930MiB/s][r=78.9k IOPS][eta 00m:34s]
Jobs: 4 (f=4): [R(4)][72.7%][r=4012MiB/s][r=64.2k IOPS][eta 00m:33s]
Jobs: 4 (f=4): [R(4)][74.2%][r=4505MiB/s][r=72.1k IOPS][eta 00m:31s]
Jobs: 4 (f=4): [R(4)][75.0%][r=4595MiB/s][r=73.5k IOPS][eta 00m:30s]
Jobs: 4 (f=4): [R(4)][75.8%][r=4775MiB/s][r=76.4k IOPS][eta 00m:29s]
Jobs: 4 (f=4): [R(4)][76.7%][r=4902MiB/s][r=78.4k IOPS][eta 00m:28s]
Jobs: 4 (f=4): [R(4)][77.5%][r=4930MiB/s][r=78.9k IOPS][eta 00m:27s]
Jobs: 4 (f=4): [R(4)][78.3%][r=4766MiB/s][r=76.3k IOPS][eta 00m:26s]
Jobs: 4 (f=4): [R(4)][79.2%][r=4541MiB/s][r=72.7k IOPS][eta 00m:25s]
Jobs: 4 (f=4): [R(4)][80.0%][r=4736MiB/s][r=75.8k IOPS][eta 00m:24s]
Jobs: 4 (f=4): [R(4)][80.8%][r=4802MiB/s][r=76.8k IOPS][eta 00m:23s]
Jobs: 4 (f=4): [R(4)][81.7%][r=4789MiB/s][r=76.6k IOPS][eta 00m:22s]
Jobs: 4 (f=4): [R(4)][82.5%][r=4775MiB/s][r=76.4k IOPS][eta 00m:21s]
Jobs: 4 (f=4): [R(4)][83.3%][r=4644MiB/s][r=74.3k IOPS][eta 00m:20s]
Jobs: 4 (f=4): [R(4)][84.2%][r=4563MiB/s][r=73.0k IOPS][eta 00m:19s]
Jobs: 4 (f=4): [R(4)][85.0%][r=4711MiB/s][r=75.4k IOPS][eta 00m:18s]
Jobs: 4 (f=4): [R(4)][85.8%][r=4721MiB/s][r=75.5k IOPS][eta 00m:17s]
Jobs: 4 (f=4): [R(4)][86.7%][r=4523MiB/s][r=72.4k IOPS][eta 00m:16s]
Jobs: 4 (f=4): [R(4)][87.5%][r=4908MiB/s][r=78.5k IOPS][eta 00m:15s]
Jobs: 4 (f=4): [R(4)][88.3%][r=4942MiB/s][r=79.1k IOPS][eta 00m:14s]
Jobs: 4 (f=4): [R(4)][89.2%][r=4934MiB/s][r=78.9k IOPS][eta 00m:13s]
Jobs: 4 (f=4): [R(4)][90.0%][r=4997MiB/s][r=79.9k IOPS][eta 00m:12s]
Jobs: 4 (f=4): [R(4)][90.8%][r=4636MiB/s][r=74.2k IOPS][eta 00m:11s]
Jobs: 4 (f=4): [R(4)][91.7%][r=4812MiB/s][r=76.0k IOPS][eta 00m:10s]
Jobs: 4 (f=4): [R(4)][92.5%][r=4865MiB/s][r=77.8k IOPS][eta 00m:09s]
Jobs: 4 (f=4): [R(4)][93.3%][r=3742MiB/s][r=59.9k IOPS][eta 00m:08s]
Jobs: 4 (f=4): [R(4)][94.2%][r=4928MiB/s][r=78.8k IOPS][eta 00m:07s]
Jobs: 4 (f=4): [R(4)][95.0%][r=4725MiB/s][r=75.6k IOPS][eta 00m:06s]
Jobs: 4 (f=4): [R(4)][95.8%][r=4747MiB/s][r=75.9k IOPS][eta 00m:05s]
Jobs: 4 (f=4): [R(4)][96.7%][r=4569MiB/s][r=73.1k IOPS][eta 00m:04s]
Jobs: 4 (f=4): [R(4)][97.5%][r=4997MiB/s][r=79.0k IOPS][eta 00m:03s]
Jobs: 4 (f=4): [R(4)][98.3%][r=4965MiB/s][r=79.4k IOPS][eta 00m:02s]
Jobs: 4 (f=4): [R(4)][99.2%][r=4808MiB/s][r=76.9k IOPS][eta 00m:01s]
Jobs: 4 (f=4): [R(4)][100.0%][r=4914MiB/s][r=78.6k IOPS][eta 00m:00s]
throughput-test-job: (groupid=0, jobs=4): err= 0: pid=39230: Tue Jul  4 17:02:05 2023
  read: IOPS=74.9k, BW=4680MiB/s (4907MB/s)(548GiB/120003msec)
    slat (usec): min=7, max=3518, avg=25.44, stdev=13.48
    clat (usec): min=418, max=252687, avg=3392.70, stdev=3246.35
     lat (usec): min=464, max=252700, avg=3418.27, stdev=3246.10
    clat percentiles (usec):
     |  1.00th=[  1549],  5.00th=[  1991], 10.00th=[  2245], 20.00th=[  2507],
     | 30.00th=[  2737], 40.00th=[  2900], 50.00th=[  3064], 60.00th=[  3228],
     | 70.00th=[  3425], 80.00th=[  3654], 90.00th=[  4359], 95.00th=[  6063],
     | 99.00th=[ 10159], 99.50th=[ 11731], 99.90th=[ 17433], 99.95th=[ 21103],
     | 99.99th=[244319]
   bw (  MiB/s): min= 2480, max= 5182, per=100.00%, avg=4685.99, stdev=86.45, samples=956
   iops        : min=39684, max=82924, avg=74975.86, stdev=1383.28, samples=956
  lat (usec)   : 500=0.01%, 750=0.01%, 1000=0.05%
  lat (msec)   : 2=5.09%, 4=81.76%, 10=12.02%, 20=1.00%, 50=0.04%
  lat (msec)   : 100=0.01%, 250=0.01%, 500=0.01%
  cpu          : usr=2.06%, sys=48.07%, ctx=760672, majf=0, minf=2104
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0%
     issued rwts: total=8985714,0,0,0 short=0,0,0,0 dropped=0,0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=64

Run status group 0 (all jobs):
   READ: bw=4680MiB/s (4907MB/s), 4680MiB/s-4680MiB/s (4907MB/s-4907MB/s), io=548GiB (589GB), run=120003-120003msec

・ スループット・パフォーマンス・テスト結果

スループット・パフォーマンスは、次の bw 行を見ると、
max= 5182 (MiB/s) = 5433.721(MB/s) = 43.47 Gbit/s であることを確認できます。

   bw (  MiB/s): min= 2480, max= 5182, per=100.00%, avg=4685.99, stdev=86.45, samples=956

■ 参考

 ・VM.Optimized3.Flex: 第3世代 Intel Xeon Ice Lake プロセッサ搭載コンピュート・インスタンス
 ・インスタンス・シェイプのパフォーマンスの詳細
 ・ブロック・ボリューム・パフォーマンス
 ・ストライプ化論理ボリュームの作成
 ・メトリックとパフォーマンス・テスト
 ・Linuxベース・インスタンスでブロック・ボリューム・パフォーマンス・テストを行うためのサンプルFIOコマンド
 ・mdadm を使用した RAID ベースおよびマルチパスストレージの設定
 ・超高パフォーマンス
 ・Oracle Linuxでの論理ボリュームの構成

16
6
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
16
6

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?