source/の
Makefileを目的の計算方式に合わせて設定し、各方式毎にコンパイル
するようになっている。実行形式ファイルは、方式毎に異なるディレクトリに
格納されるようにする。
| 計算方式 | 実行形式の格納場所 | コード | exstyle | numcpu | |||
| (1) | シングルノード、自動並列 | source/BIN_sr11_sn_auto |
cpvos.x | s | N | ||
| (2) | シングルノード、MPI並列 | source/BIN_sr11_sn_mpi |
cpvop.x | p | 1 | ||
| (3) | マルチノード、自動並列 | source/BIN_sr11_mn_auto |
cpvop.x | p | N | ||
| (4) | マルチノード、MPI並列 | source/BIN_sr11_mn_mpi |
cpvop.x | p | 1 |
exstyle, numcpuは、cpvo.shで設定するものであり、上記いずれの
場合にも、正しい値を設定する必要がある。表中のNは、1cpvo.shで物性研の計算で注意する設定は、srcdir,
drvname, frtの設定である。srcdirは、表中の実行形式の
格納場所を指定する。drvnameには、sr11kを指定する。
frtにはftを指定する。
物性研でにジョブ投入は、JCF(ジョブコントロールファイル)をサブミットすることに
より実行する。計算方式に応じて、CPVO用のJCFを用意している。
ディレクトリJCFinSR11000/の中に置かれている。
マルチノード、MPI並列の場合ならば、jcf.mn_mpi
というファイルを作業ディレクトリにコピーして使用する。
# @ node=2 # @ total_tasks=16 # @ resources=ConsumableCpus(1)というように、指定指定する。いずれの方式でも、使用したいプロセスの数を
total_tasksに指定する。(SR11000場合はnumcpuに指定するのでは
ない)
MPI並列を用いた3種類の計算方式のいずれの場合も、
ConsumableCpusの数値をcpvo.sh中のnumcpuと同一の
値に設定する。このConsumableCpusの数値とノード数nodeとは、
nodeを用いるようにすればよい。
%> llsubmit jcf.mn_mpi (return)とする。 ジョブを監視するには、
%> qstat等があるが、物性研のマニュアルを参考にしてほしい。 ジョブをキャンセルするには、
qstatでジョブID job_idを知り、
%> llcancel job_idとする。