24
7

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Exadata へ Oracle ACFS NAS Maximum Availability Extensions (ACFS NAS MAX)を設定してみてみた

24
Last updated at Posted at 2026-04-07

Oracle ACFS NAS Maximum Availability eXtensions(Oracle ACFS NAS MAX) は、Oracle ACFS 上で NFS や SMB の共有を高可用化できる機能です。
Oracle RAC クラスタ内で VIP とエクスポートをクラスタ管理できるため、ノード障害時や再配置時にも、クライアントは同じ仮想IP経由で継続してアクセスできます。

今回は、Oracle Cloud Exadata Database Service on Dedicated Infrastructure 上に作成済みの ACFS ファイルシステム /acfsnasmax を利用し、Oracle ACFS NAS MAX の HA-NFS 構成を実際に設定してみます。あわせて、Exadata VM クラスタ側の仮想IPアドレス設定と組み合わせることで、OCI の VCN レイヤーでも追従できる構成を確認します。

Exadata Database Service on Dedicated Infrastructure X11M は、最小構成でも 2 台の DB サーバーと 3 台のストレージサーバーから始まり、合計使用可能ディスク容量は 240TB です。
この大規模な専有ストレージを、データベース用途だけでなく ACFS NAS MAX による共有ストレージ基盤としても活用できれば、用途によっては別途 NAS サービスや専用ファイルサーバーを持たずに済み、構成の集約やコスト最適化にもつながります。

Oracle ACFS NAS MAX 概要.png

Oracle Advanced Cluster File System (Oracle ACFS)は、マルチプラットフォームのスケーラブルなファイル・システムであり、Oracle Automatic Storage Management (Oracle ASM)の機能を拡張して、すべてのカスタマ・ファイルをサポートするストレージ管理テクノロジです。
ACFS03.png
アプリケーション・ファイル(実行可能ファイル、データベース・データファイル、データベース・トレース・ファイル、データベース・アラート・ログ、アプリケーション・レポート、BFILEおよび構成ファイルなど)がサポートされています。他にも、ビデオ、オーディオ、テキスト、イメージ、設計図、その他の汎用アプリケーションのファイル・データがサポートされます。Oracle ACFS は、Linux および UNIX の POSIX標準に準拠しています。
Oracle ACFS NAS MAXはクラスタ・ファイル・システム Oracle ACFS の上に構築されており、NFS共有および SMB共有で Oracle ACFSの管理インタフェースとメリットを活用できるようにします。

Oracle ACFS NAS MAX の主なメリットは次のとおりです。

  • Oracle ACFS 上の NFS 共有および SMB 共有を高可用化できます。
  • Oracle RAC クラスタ内のすべてのノードから同じデータを利用できます。
  • VIP を介してアクセスするため、クライアントはバックエンドのノード切替えを意識せず利用できます。
  • ACFS スナップショット、レプリケーション、暗号化、圧縮などの機能を活用できます。
  • クライアントがファイル・システムをマウント中でもファイル・システムのサイズを自動的に変更できます。

これらの機能およびOracle ACFSのその他の機能について、詳しくは Oracle Advanced Cluster File Systemの管理者ガイドを参照してください。

NASMAX01.png
Oracle RACクラスタ内のノードが使用可能である限り、VIP経由でエクスポートが引き続き論理的に使用可能で、どのOracle RACノードがVIPへのアクセスを提供しているかを、クライアントは認識しません。

ということで、Exadata Database Service へ ACFS NAS/MAX を設定してみます。

■ 構成イメージ

構成図.png

今回はクライアント側で NFSv4 によるマウント確認を行いました。
一方で、NFSv3 クライアントも利用できるようにするため、事前に rpcbindnfs-utils を有効化しています。

  • NFSv4: nfs-utils
  • NFSv3: nfs-utils, rpcbind

■ NFSとサーバーの基本的セットアップ

Exadata へ HA-NFS をセットアップします。
NFSv4 と NFSv3 でセットアップが異なり、NFSv4 と NFSv3両方利用できるようにするには、nfs-utils, rpcbindをセットアップします。

NFS必要パッケージ
NFSv4: nfs-utils
NFSv3: nfs-utils, rpcbind

● rpcbind 確認

NFSv3 も利用できるようにするには rpcbind を有効化します。
1) rpcbind 起動確認
次のように停止している場合は、起動します。

[root@exadata-node1 ~]# /bin/systemctl status rpcbind
● rpcbind.service - RPC Bind
   Loaded: loaded (/usr/lib/systemd/system/rpcbind.service; disabled; vendor preset: enabled)
   Active: inactive (dead)
     Docs: man:rpcbind(8)
You have new mail in /var/spool/mail/root

2) rpcbind 起動

[root@exadata-node1 ~]# /bin/systemctl start rpcbind

3) rpcbind 起動確認

[root@exadata-node1 ~]# /bin/systemctl status rpcbind
● rpcbind.service - RPC Bind
   Loaded: loaded (/usr/lib/systemd/system/rpcbind.service; disabled; vendor preset: enabled)
   Active: active (running) since Wed 2026-03-11 21:46:03 JST; 2s ago
     Docs: man:rpcbind(8)
 Main PID: 198017 (rpcbind)
    Tasks: 1 (limit: 319999)
   Memory: 972.0K
   CGroup: /system.slice/rpcbind.service
           └─198017 /usr/bin/rpcbind -w -f

Mar 11 21:46:03 exadata-node1 systemd[1]: Starting RPC Bind...
Mar 11 21:46:03 exadata-node1 systemd[1]: Started RPC Bind.

4) rpcbind自動起動設定

[root@exadata-node1 ~]# systemctl enable rpcbind
[root@exadata-node1 ~]# systemctl is-enabled rpcbind
	enabled

● nfs-utils 設定

1) nfs-utils インストール

[root@exadata-node1 ~]# yum install nfs-utils
Last metadata expiration check: 3:12:22 ago on Wed Mar 11 18:35:17 2026.
Package nfs-utils-1:2.3.3-64.0.1.el8_10.x86_64 is already installed.
Dependencies resolved.
=======================================================================================================================================================================
 Package                            Architecture                    Version                                           Repository                                  Size
=======================================================================================================================================================================
Upgrading:
 nfs-utils                          x86_64                          1:2.3.3-68.0.1.el8_10                             ol8_baseos_latest                          518 k

Transaction Summary
=======================================================================================================================================================================
Upgrade  1 Package

Total download size: 518 k
Is this ok [y/N]: y
Downloading Packages:
nfs-utils-2.3.3-68.0.1.el8_10.x86_64.rpm                                                                                               9.9 MB/s | 518 kB     00:00
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
Total                                                                                                                                  9.0 MB/s | 518 kB     00:00
Running transaction check
Transaction check succeeded.
Running transaction test
Transaction test succeeded.
Running transaction
  Preparing        :                                                                                                                                               1/1
  Running scriptlet: nfs-utils-1:2.3.3-68.0.1.el8_10.x86_64                                                                                                        1/1
  Running scriptlet: nfs-utils-1:2.3.3-68.0.1.el8_10.x86_64                                                                                                        1/2
  Upgrading        : nfs-utils-1:2.3.3-68.0.1.el8_10.x86_64                                                                                                        1/2
  Running scriptlet: nfs-utils-1:2.3.3-68.0.1.el8_10.x86_64                                                                                                        1/2
  Running scriptlet: nfs-utils-1:2.3.3-64.0.1.el8_10.x86_64                                                                                                        2/2
  Cleanup          : nfs-utils-1:2.3.3-64.0.1.el8_10.x86_64                                                                                                        2/2
  Running scriptlet: nfs-utils-1:2.3.3-64.0.1.el8_10.x86_64                                                                                                        2/2
  Verifying        : nfs-utils-1:2.3.3-68.0.1.el8_10.x86_64                                                                                                        1/2
  Verifying        : nfs-utils-1:2.3.3-64.0.1.el8_10.x86_64                                                                                                        2/2

Upgraded:
  nfs-utils-1:2.3.3-68.0.1.el8_10.x86_64

Complete!

2) nfs-server 起動

[root@exadata-node1 ~]# systemctl start nfs-server.service

3) nfs-server 起動確認

[root@exadata-node1 ~]# systemctl status nfs-server.service
● nfs-server.service - NFS server and services
   Loaded: loaded (/usr/lib/systemd/system/nfs-server.service; disabled; vendor preset: disabled)
   Active: active (exited) since Wed 2026-03-11 21:49:54 JST; 21s ago
  Process: 233253 ExecStart=/bin/sh -c if systemctl -q is-active gssproxy; then systemctl reload gssproxy ; fi (code=exited, status=0/SUCCESS)
  Process: 233235 ExecStart=/usr/sbin/rpc.nfsd (code=exited, status=0/SUCCESS)
  Process: 233233 ExecStartPre=/usr/sbin/exportfs -r (code=exited, status=0/SUCCESS)
 Main PID: 233253 (code=exited, status=0/SUCCESS)
    Tasks: 0 (limit: 319999)
   Memory: 0B
   CGroup: /system.slice/nfs-server.service

Mar 11 21:49:54 exadata-node1 systemd[1]: Starting NFS server and services...
Mar 11 21:49:54 exadata-node1 systemd[1]: Started NFS server and services.

4) nfs-server自動起動設定

[root@exadata-node1 ~]# systemctl enable nfs-server
[root@exadata-node1 ~]# systemctl is-enabled nfs-server
	enabled

■ エクスポート対象となる ACFS ファイル・システムの準備

次を参考に Exadata へ ACFS ファイルシステムを作成します。

今回は、ACFS を /acfsnasmax へ設定しました。

[root@exadata-node1 ~]# df -hT | grep acfs
		/dev/asm/acfsvol01-343                                   acfs      100G   55G   46G  55% /acfs01
		/dev/asm/nfsmax-343                                      acfs       10G  570M  9.5G   6% /acfsnasmax

■ ACFS スナップショットの作成(オプション)

この手順はオプションですが、スナップショットを作成することをお勧めします。

1. 複数のスナップショットで同じ ACFS ファイルシステムを共有できます。HANFS は ACFS ファイルシステム全体ではなく、スナップショットごとに構成できます。異なるスナップショットを異なる DB System ホストと共有できます。
2. ACFS ファイルシステムの最小ボリュームサイズは 512MB です。より大きな ACFS ファイルシステム上に複数のスナップショットを作成する方が、DB System に接続するための専用の小さな ACFS ファイルシステムを作成するよりもスペース効率が優れています。
3. 管理と監視が容易になります。
4. 読み取り専用スナップショットを使用して、簡単かつ容易にバックアップできます。
5. 親スナップショットの読み書き可能なスナップショットを使用して、簡単かつ容易にクローンできます。

次を参考に設定します。

1) スナップショット作成
Oracle ACFSファイルシステムの読み取り専用または読み書き可能なスナップショット、あるいは既存のスナップショットを作成します。

[root@exadata-node1 ~]# acfsutil snap create -w snap-acfsnasmax /acfsnasmax
	acfsutil snap create: Snapshot operation is complete.

2) スナップショット作成確認
Oracle ACFSファイルシステムのスナップショットに関する情報を表示します。

[root@exadata-node1 ~]# acfsutil snap info /acfsnasmax
	snapshot name:               snap-acfsnasmax
	snapshot location:           /acfsnasmax/.ACFS/snaps/snap-acfsnasmax
	RO snapshot or RW snapshot:  RW
	storage interest tracking:   Enabled
	parent name:                 /acfsnasmax
	snapshot creation time:      Sun Mar 15 14:59:39 2026
	file entry table allocation: 393216   ( 384.00 KB ) ( 96 entries )
	storage added to snapshot:   393216   ( 384.00 KB )


		number of snapshots:  1
		kilosnap state:       Enabled
		storage interest tracking: Enabled
		snapshot space usage: 393216  ( 384.00 KB )

■ シンプルなOracle ACFS HA-NFSシナリオの構成(ロックなし)

● rootユーザーへGI_HOME環境変数設定

ここからは、gridユーザーが保有する srvctlコマンドは、rootユーザーで設定します。
そのため、rootユーザーへ GI_HOME環境変数として gridユーザーの ORACLE_HOME設定しておきます。

[root@exadata-node1 ~]# sudo su - grid
[grid@exadata-node1 ~]$ env | grep ORACLE
	ORACLE_SID=+ASM1
	ORACLE_HOME=/u02/app/23.0.0.0/gridhome_1
	ORACLE_HOSTNAME=exadata-node1
[grid@exadata-node1 ~]$ exit
[root@exadata-node1 ~]# export GI_HOME=/u02/app/23.0.0.0/gridhome_1
[root@exadata-node1 ~]# env | grep GI_HOME
	GI_HOME=/u02/app/23.0.0.0/gridhome_1

● HAVIPの登録

システムに新しいHAVIPを追加するには、コマンド‘srvctl add HAVIP’を使用します。このHAVIP を HA-NFS とHA-SMB の両方に使用できます。
次の参考情報でコマンドの詳細を確認してください。
・参考: srvctl add havip

1) HAVIP登録
srvctl add havipコマンドで、HAVIPを登録します。
・ srvctl add havip コマンドのパラメータ

パラメータ 今回の設定 説明
-id havip_name HAVIP-ACFSNAS HAVIPリソースの一意のIDを指定
-address {host_name | ip_address} 10.0.0.100 作成するHAVIP用のホスト名またはIPv4 IPアドレスを指定
-netnum network_number 1 デフォルト値は1、必要に応じてHAVIPが依存するネットワーク・リソースを指定
-description "<text>" "HAVIP-ACFSNAS" 必要に応じて、HAVIPのテキスト説明を指定
-skip null 必要に応じて、このパラメータを指定して、IPアドレスの到達可能性の確認をスキップできます。
-homenode null 必要に応じて、優先ノードまたは空の文字列を指定して、ホーム・ノードをクリアできます。
[root@exadata-node1 ~]# $GI_HOME/srvctl add havip -id HAVIP-ACFSNAS -address 10.0.0.100 -netnum 1 -description "HAVIP-ACFSNAS"
PRKZ-1058 : HAVIP exists for address 10.0.0.100

2) HAVIP登録確認
HAVIPには1つまたは複数の構成済みのExportFSが必要です。ExportFSがないと、HAVIPは
開始されません。クライアントがExportFSをマウントしており、使用可能なExportFSがない状態でHAVIPが開始された場合、クライアントは
ESTALEエラーを受け取ります。

[root@exadata-node1 ~]# $GI_HOME/srvctl status havip -id HAVIP-ACFSNAS
	HAVIP ora.havip-acfsnas.havip is enabled
	HAVIP ora.havip-acfsnas.havip is not running

[root@exadata-node1 ~]# $GI_HOME/srvctl start havip -id HAVIP-ACFSNAS
	PRCE-1026 : Cannot start HAVIP resource without an Export FS resource.

● ExportFSの登録

Oracle Clusterwareでエクスポート・ファイル・システムの構成を作成します。
次の参考情報でコマンドの詳細を確認してください。
・参考: srvctl add exportfs

1) EXPORTFS登録
Oracle Clusterwareでエクスポート・ファイル・システムの構成を作成します。

・ srvctl add exportfs コマンドのパラメータ

パラメータ 今回の設定 説明
-name unique_name EXPORT-ACFSNASMAX 作成するエクスポート・ファイル・システムの一意の名前を入力
-id havip_name HAVIP-ACFSNAS srvctl add havipコマンドで指定した既存のHAVIPを識別する番号または名前を入力
-path path_to_export /acfsnasmax エクスポートするOracle ACFS パスを入力
-clients export_clients null 必要に応じて、ファイル・システムのエクスポート先クライアントのカンマ区切りリストを入力。ネット・グループおよびワイルドカードを入力できます。たとえば: -clients @netgroup1,*.example.com,16.140.0.0,hostname1
-type NFS エクスポート・タイプ(NFSまたはSMB)を指定
[root@exadata-node1 ~]# $GI_HOME/srvctl add exportfs -path /acfsnasmax -id HAVIP-ACFSNAS -name EXPORT-ACFSNASMAX

2) EXPORTFS登録確認
エクスポート・ファイル・システムの構成のステータスを表示します。

[root@exadata-node1 ~]# $GI_HOME/srvctl status exportfs -name EXPORT-ACFSNASMAX
	export file system export-acfsnasmax is enabled
	export file system export-acfsnasmax is not exported

3) EXPORTFS構成情報確認
Oracle Clusterwareのエクスポート・ファイル・システムの構成情報を表示します。

[root@exadata-node1 ~]# $GI_HOME/srvctl config exportfs -name EXPORT-ACFSNASMAX
	export file system export-acfsnasmax is configured
	Exported path: /acfsnasmax
	Export Options: rw,no_root_squash
	Configured Clients: 10.0.0.0/24
	Export Type: NFS
	Export file system is enabled.
	Export file system is individually enabled on nodes:
	Export file system is individually disabled on nodes:

4) EXPORTFS構成を起動
エクスポート・ファイル・システムの構成を起動します。

[root@exadata-node1 ~]# $GI_HOME/srvctl start exportfs -id HAVIP-ACFSNAS
[root@exadata-node1 ~]# $GI_HOME/srvctl status exportfs
	export file system export-acfsnasmax is enabled
	export file system export-acfsnasmax is exported on node exadata-node2

5) エクスポート中情報確認
エクスポート中またはエクスポート解除中のファイルシステムに関する詳細情報が表示されます。

[root@exadata-node1 ~]# exportfs -v
	/acfsnasmax   	10.0.0.0/24(sync,wdelay,hide,no_subtree_check,fsid=787625048,sec=sys,rw,secure,no_root_squash,no_all_squash)

● 付録: 初期化 HAVIP と ExportFSの登録解除

$GI_HOME/srvctl stop havip -id HAVIP-ACFSNAS
$GI_HOME/srvctl stop exportfs -id HAVIP-ACFSNAS
$GI_HOME/srvctl remove exportfs -name HAVIP-ACFSNAS 
$GI_HOME/srvctl remove havip -id HAVIP-ACFSNAS

■ Exadata Database Service へ 仮想IPアドレスを設定

Oracle Exadata Database Service on Dedicated Infrastructureは、Exadata VMクラスタでの追加の仮想IPアドレスの作成を完全にサポートしています。
Oracle ACFS NAS MAXはクライアントが仮想IP(VIP)に接続するためのアーキテクチャを提供します。
現在のノードでサービスが利用できなくなった場合、このVIPはCRSリソースによって制御されて、クラスタ内を移動します。
ほとんどの場合、クライアントはサーバーが別のサーバーに置き換わったことを認識せず、VIPがホストされている新しいサーバーとの間でトランザクションを続行します。
Exadata VMクラスタでアプリケーション・フローティングIPアドレス・オブジェクトをアタッチして、フローティングIPの知識をVCNレイヤーに追加します。
バックエンド・アプリケーションVIPを作成したものと同じサブネット(通常はクライアント・サブネット)を選択していることを確認します。

1) 仮想IPアドレス画面
Exadata VMクラスタ画面から、[仮想IPアドレス]画面にある[仮想アドレスのアタッチ]をクリック
01_仮装IPアドレスのアタッチ01.png

2) 仮想IPアドレスのアタッチ画面
仮想IPアドレスのアタッチダイアログで次の内容を設定し、[アタッチ]をクリック

・ サブネット: Exadata クライアント・サブネットを選択
・ 仮想IPアドレス・ホスト名: 仮想IPアドレスのホスト名を入力
・ IPv4/IPv6アドレス: 手動割当てを選択する場合、必要なIPアドレスを入力
・ 仮想マシン(オプション): デフォルトでアタッチする仮想マシン名を入力

01_仮装IPアドレスのアタッチ03.png

3) 仮想IPアドレスのアタッチ中〜
01_仮装IPアドレスのアタッチ04.png

4) 仮想IPアドレスのアタッチ完了
01_仮装IPアドレスのアタッチ05.png

■ VIPのノード再配置

VIPの再配置をテストします。 VIPは使用可能なまま(pingを介してこれをテスト)し、フローティングIPも別のホストに移動している間、ユーザー・インタフェースは少し後に表示されます。
ノードの再配置に使用するコマンドは、'srvctl relocate HAVIP'です。
高可用性VIP (HAVIP) (高可用性NFSおよびSMBエクスポートに使用)をクラスタ内の別のノードに再配置します。

1) 事前確認
・ crsctl

[root@exadata-node1 ~]# $GI_HOME/crsctl stat res -t|grep ".havip\|.export" -A1
ora.export-acfsnasmax.export
      1        ONLINE  ONLINE       exadata-node2              STABLE
ora.havip-acfsnas.havip
      1        ONLINE  ONLINE       exadata-node2              STABLE

・ srvctl

[root@exadata-node1 ~]# $GI_HOME/srvctl status exportfs
	export file system export-acfsnasmax is enabled
	export file system export-acfsnasmax is exported on node exadata-node2

2) VIPのノード再配置
-force 無しで実行した場合、次のように force option が必要な出力が出た場合は、force オプション付けて実行します。

[root@exadata-node1 ~]# $GI_HOME/srvctl relocate havip -id HAVIP-ACFSNAS -node exadata-node1
	PRCR-1105 : Failed to relocate resource ora.havip-acfsnas.havip to node exadata-node1
	PRCR-1089 : Failed to relocate resource ora.havip-acfsnas.havip.
	CRS-2805: Unable to start 'ora.havip-acfsnas.havip' because it has a 'hard' dependency on resource type 'ora.havip-acfsnas.export.type' and no resource of that type can satisfy the dependency
	CRS-2525: All instances of the resource 'ora.export-acfsnasmax.export' are already running; relocate is not allowed because the force option was not specified
[root@exadata-node1 ~]# $GI_HOME/srvctl relocate havip -id HAVIP-ACFSNAS -node exadata-node1 -force
HAVIP was relocated successfully
[root@exadata-node1 ~]#

3) VIPのノード再配置確認

[root@exadata-node1 ~]# sudo $GI_HOME/srvctl status havip -id HAVIP-ACFSNAS
	HAVIP ora.havip.havip is enabled
	HAVIP ora.havip.havip is running on nodes exadata-node1
[root@exadata-node1 ~]# $GI_HOME/crsctl stat res ora.havip-acfsnas.havip -t
--------------------------------------------------------------------------------
Name           Target  State        Server                   State details
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.havip-acfsnas.havip
      1        ONLINE  ONLINE       exadata-node1              STABLE
--------------------------------------------------------------------------------
[root@exadata-node1 ~]# $GI_HOME/crsctl stat res ora.export-acfsnasmax.export -t
--------------------------------------------------------------------------------
Name           Target  State        Server                   State details
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.export-acfsnasmax.export
      1        ONLINE  ONLINE       exadata-node1              STABLE
--------------------------------------------------------------------------------
[root@exadata-node1 ~]# $GI_HOME/crsctl stat res -t
	ora.export-acfsnasmax.export
		1        ONLINE  ONLINE       exadata-node1              STABLE
	ora.havip-acfsnas.havip
		1        ONLINE  ONLINE       exadata-node1              STABLE

■ NFS Client 設定

Exadata に設定された ACFS NAS を クライアントにマウントします。

HANFS によってエクスポートされたファイル・システムをクライアントにマウントする際、次のマウント・オプションが推奨されています。

hard,intr,retrans=10000

この設定は、サーバー障害時や HAVIP のフェイルオーバー時に、クライアントが一時的な応答停止を吸収しやすくするためのものです。
Oracle ACFS NAS MAX では、NFS エクスポートは VIP を介して提供されるため、バックエンドのノードが切り替わっても、クライアントから見える接続先は同じです。(docs.oracle.com)

そのため、クライアント側では I/O をすぐにエラーにせず、一定時間は再試行しながら待機できる設定にしておくのが有効です。
特に hard は、サーバー応答が戻るまで NFS 要求を継続して再試行するため、ノード障害や VIP の再配置中でも、アプリケーションが即時に I/O エラーになりにくくなります。Linux の NFS マニュアルでも、hard マウントはサーバーが応答するまで再試行を続ける動作として定義されています。(man7.org)
 また、retrans=10000 は再試行回数を大きくする設定で、Oracle ACFS NAS MAX の資料でも、障害発生時にクライアントが何度も再試行することで、ネットワークの一時的な異常や HAVIP のフェイルオーバーが解消されるまで待てるようにする意図が説明されています。(oracle.com)
 つまり、この推奨オプションは、クラスタ内でエクスポート先ノードが切り替わる瞬間でも、クライアントがすぐ失敗せず、フェイルオーバー完了まで待ちやすくするための設定と考えると分かりやすいです。

※補足
Oracle ACFS NAS MAX の資料では hard,intr,retrans=10000 が推奨されていますが、Linux の nfs(5) では intr は後方互換用オプションであり、kernel 2.6.25 以降では無視されるとされています。
 そのため、Oracle Linux 8 では実質的には hardretrans=10000 の意味合いが中心になります。(man7.org)

1) mount実行

[root@vm-tokyo mnt]# mount -t nfs -o hard,intr,retrans=10000 10.0.0.100:/acfsnasmax /mnt/acfsnasmax

2) マウント確認
マウントされたOSディレクトリを確認

[root@vm-tokyo mnt]# df -hT | grep acfs
	10.0.0.100:/acfsnasmax     nfs4       10G  569M  9.5G   6% /mnt/acfsnasmax

3) mount情報確認
マウントしたACFSと実測されているマウント・オプションを確認できます。

[root@vm-tokyo ~]# mount | grep acfs
	10.0.0.100:/acfsnasmax on /mnt/acfsnasmax type nfs4 (rw,relatime,vers=4.2,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,timeo=600,retrans=10000,sec=sys,clientaddr=10.0.0.133,local_lock=none,addr=10.0.0.100)

今回は、Oracle Cloud Exadata Database Service on Dedicated Infrastructure 上に作成した ACFS ファイルシステムを使って、Oracle ACFS NAS MAX の HA-NFS 構成を実際に試してみました。

単に ACFS を作成するだけでなく、HAVIP・exportfs・Exadata VM クラスタ側の仮想IPアドレスを組み合わせることで、OCI 上でもクラスタの再配置に追従できる構成になることが確認できました。
Exadata Database Service on Dedicated Infrastructure X11M は最小構成でも 240TB の使用可能ディスク容量を持つため、この大容量をデータベース用途だけでなく NAS MAX による共有基盤としても活用できれば、専用 NAS サービスを別途用意しなくてよいケースもあり、構成の集約やコスト最適化の選択肢としても面白いと感じました。

Exadata と Oracle ACFS の組み合わせは、データベース基盤にとどまらず、高可用性を備えた共有ストレージ基盤としても非常に魅力があります。

Oracle Database は主に Data Guard で異なるリージョンへ保護するとしても、ACFS 上の非DBファイルは別途レプリケーションを考える必要があります。
次は Oracle ACFS Replication を使って、Exadata 上の ACFS ファイルをリージョン間でどう保護できるのかを試してみたいと思います。

■ 参考

■ 技術解説

24
7
2

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
24
7

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?