2
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

Slurmでジョブの投入制限を設定する

Last updated at Posted at 2021-10-19

やりたいこと

現在Slurmで管理しているクラスタへのジョブ同時投入数、同時実行数を制限する。
今回はパーティション単位の制限とユーザ単位の制限の2パターンを設定し、リソース制限の階層構造についても理解する。

前提環境

  • Unixアカウント(LDAP)
  • Slurmクラスタ(SlurmDBDがインストール済)

**※注意事項:必ずUnixユーザ名(UID)≠Unixグループ名(GID)**にする必要があります。
詳細はSlurm account synchronization with UNIX groups and usersを参照してください。

UnixアカウントとSlurmアカウントをSyncさせる

Slurmアカウント、ユーザの作成

UnixユーザとSlurmユーザを同期させるためには、Slurm側で以下2点を作成する必要があります。

  • Unixグループと同名のSlurmアカウント
  • Unixユーザと同名Slurmユーザ

 詳細はSlurm account synchronization with UNIX groups and users | P6を参照してください。

Unixアカウントの確認

Command
id handson
出力例
uid=132400015 gid=132400013(handson-group) groups=132400013(handson-group) context=unconfined_u:unconfined_r:unconfined_t:s0-s0:c0.c1023

Slurmアカウントの作成
ユーザの所属するGroupをslurmのaccountに指定します。

Command
sacctmgr add account handson-group

確認コマンド

sacctmgr list account
出力例
   Account                Descr                  Org 
---------- -------------------- -------------------- 
handson-+        handson-group        handson-group 
      root default root account                 root 

Slurmユーザの作成

Command
sacctmgr add user handson account=handson-group

確認コマンド

Command
sacctmgr list user 
出力例
      User   Def Acct     Admin 
---------- ---------- --------- 
  handson  handson-+      None 
      root       root Administ+ 

ジョブの投入制限、実行制限の設定

Slurmにおけるリソースの制限について

Slurmにおけるリソースの制限については、以下7つの階層(方法)で各種制限を設定することができ、各制限については上位の制限が優先されます。

また、設定付与の形式についてはassociationという設定を個別に指定して付与する形とQOSという複数の設定をひとまとめにしたものを付与する形があります。

Slurmにおけるリソース制限の階層

1. Partition QOS limit  
2. Job QOS limit
3. User association 
4. Account※ association 
5. Root/Cluster association
6. Partition limit
7. None

※SlurmにおけるアカウントはUnixにおけるユーザグループとマッピングされます。

今回の設定したい項目であるジョブの実行数、投入数の制限に関する設定項目を公式サイトで確認し抜粋してみました。

ジョブ数制限関連の設定
associationとして指定できるもの、QOSとして指定できるものをそれぞれの列に記載しています。
image.png

リソース制限を有効にする

slurmのコンフィグファイルslurm.confに以下設定を追記します。

Command
echo "AccountingStorageEnforce=limits"  >> /PATH/TO/slurm.conf

注意: 上記設定を有効にするとユーザのassociationがDBにないとジョブが実行できなくなります。
(= slurmユーザではないUnixアカウントはジョブを実行できなくなる。)

各Head、Computeノードのslurm.confを上書きし設定反映、ヘッドノードの slurmctld /コンピュートノードの slurmdstop/start します。

sudo systemctl stop slurmctld
sudo pdsh -w ${NODE} "systemctl stop slurmd"
sudo systemctl start slurmctld
sudo pdsh -w ${NODE} "systemctl start slurmd"
sudo systemctl status slurmctld
sudo pdsh -w ${NODE} "systemctl status slurmd"

ユーザに対してassociationを設定する

slurm.conf で指定したSlurmUserにスイッチします。
※ここではrootにスイッチしてます。

sudo su -

最大ジョブ実行のassociationを設定します。

Command
sacctmgr modify user handson account=handson-group set MaxJobs=1 

設定を確認します。
format=に確認したい設定の値を指定することで出力をフィルターできます。

Command
 sacctmgr show Association format=Cluster,Account,User,MaxJobs,MaxSubmit
出力例
   Cluster    Account       User MaxJobs MaxSubmit 
---------- ---------- ---------- ------- --------- 
  20211012       root                              
  20211012       root       root                   
  20211012 handson-g+                              
  20211012 handson-g+    handson       1           
       

ジョブを実行してみます。

Command
su - handson
Command
sbatch run.sh
sbatch run.sh
sbatch run.sh

ジョブの実行状況を確認します。
フェデレーションされている環境では--federationオプションを指定します。

Command
squeue --federation

指定した MaxJobs=1 の数を超えるジョブはPendingされていることが見て取れます。

出力例
             JOBID PARTITION     NAME     USER ST       TIME  NODES NODELIST(REASON)
          67109182    vkix01  handson  handson PD       0:00      1 (AssocMaxJobsLimit)
          67109183    vkix01  handson  handson PD       0:00      1 (AssocMaxJobsLimit)
          67109180    vkix01  handson  handson  R       0:09      1 computenode01

パーティションにQOSを設定する

SlurmUserにスイッチします。

Command
exit
sudo su -

QOSを作成します。

Command
sacctmgr add qos handsonqos

QOSの設定を変更します。
今回は 最大ジョブ実行数:MaxJobs=0、最大ジョブ投入数:MaxSubmitJobsPerUser=0を設定しジョブを投入できない状態に設定してみます。

※QOS設定可能な設定値詳細についてはResourceLimitをご参照ください。

Command
sacctmgr modify qos handsonqos set MaxJobs=0 MaxSubmitJobsPerUser=0

QOSの設定を確認します。
format=に確認したい設定の値を指定することで出力をフィルターできます。 
※QOSではMaxSubmit=MaxSubmitJobsPerUserです。

Command
sacctmgr show qos format="Name,MaxWall,MaxTRESPerUser%30,MaxJob,MaxSubmit,Priority,Preempt"
Command
      Name     MaxWall                      MaxTRESPU MaxJobs MaxSubmit   Priority    Preempt 
---------- ----------- ------------------------------ ------- --------- ---------- ---------- 
    normal                                                                       0            
handsonqo+                                                 0         0           0       

slurm.confでQOSを設定したいパーティションにQOS設定を追加

slurm.conf
--抜粋--

PartitionName=debug Nodes=loginnode Default=No MaxTime=INFINITE State=UP
PartitionName=vkix01 Nodes=computenode0[1-2] Default=Yes MaxTime=1:00:00 State=UP QOS=handsonqos

各Head、Computeノードのslurm.confを上書きし設定反映、ヘッドノードの slurmctld /コンピュートノードの slurmdstop/start します。

sudo systemctl stop slurmctld
sudo pdsh -w ${NODE} "systemctl stop slurmd"
sudo systemctl start slurmctld
sudo pdsh -w ${NODE} "systemctl start slurmd"
sudo systemctl status slurmctld
sudo pdsh -w ${NODE} "systemctl status slurmd"

```bash:update.sh
#!/bin/bash

sudo cp -p /scratch/slurm.conf.tmp /usr/local/etc/slurm.conf

sudo systemctl stop slurmctld
sudo systemctl start slurmctld
sudo systemctl status slurmctld

sudo systemctl stop slurmd
sudo systemctl start slurmd
sudo systemctl status slurmd

パーティションの設定を確認します。

Command
scontrol show partition
出力例
PartitionName=vkix02
   AllowGroups=ALL AllowAccounts=ALL AllowQos=ALL
   AllocNodes=ALL Default=YES QoS=handsonqos
   DefaultTime=NONE DisableRootJobs=NO ExclusiveUser=NO GraceTime=0 Hidden=NO
   MaxNodes=UNLIMITED MaxTime=UNLIMITED MinNodes=0 LLN=NO MaxCPUsPerNode=UNLIMITED
   Nodes=computenode0[3-4]
   PriorityJobFactor=1 PriorityTier=1 RootOnly=NO ReqResv=NO OverSubscribe=NO
   OverTimeLimit=NONE PreemptMode=OFF
   State=UP TotalCPUs=2 TotalNodes=2 SelectTypeParameters=NONE
   JobDefaults=(null)
   DefMemPerNode=UNLIMITED MaxMemPerNode=UNLIMITED

他のQOS設定やassociationの設定状況を確認します。

Command
sacctmgr show Association format=Cluster,User,Priority,MaxJobs,MaxSubmit,QOS
出力例
   Cluster       User   Priority MaxJobs MaxSubmit                  QOS 
---------- ---------- ---------- ------- --------- -------------------- 
  20211012                                                       normal 
  20211012       root                                            normal 
  20211012                                                       normal 
  20211012    handson                  1                         normal 
  20211012                                                       normal 
  20211012   nakamura                  1                         normal 
  20211012                                                       normal 

ジョブを実行してみます。

Command
su - handson
Command
sbatch run.sh

パーティションQOSの設定が優先されジョブが実行できないことが確認できました。

出力例
sbatch: error: QOSMaxSubmitJobPerUserLimit
sbatch: error: Batch job submission failed: Job violates accounting/QOS policy (job submit limit, user's size and/or time limits)
2
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?