高速叢集運算伺服器 Apollo 環境簡介
登入節點與溫度監測:master-lppl.isaps.ncku.edu.tw
高速叢集運算伺服器 Apollo 環境簡介
登入節點與溫度監測:master-lppl.isaps.ncku.edu.tw
256 cores (32 * 8)、10G switch、240 T storage
登入節點:master-lppl.isaps.ncku.edu.tw (可用 ThingLink)
作業系統:Rocky Linux 8
排程整合:Slurm
檔案傳輸:建議用 WinSCP
在 /work/ 進行運算。
運算完後可將資料搬運到 /home/ 進行存放與分析。
如須做大量的參數掃描運算,建議還是使用國家高速網路中心的資源。運算完再傳出回來存放。
在 /opt/pkgs/ 底下可見已安裝的軟體。
系統用 conda 整合不同軟體間對環境的需求。
例如使用 EPOCH 時
鍵入> conda activate EPOCH
要退出 EPOCH 環境時
鍵入> conda deactivate
(master) HPE Apollo 4510 Gen10
每個node規格如下
HPE XL450 Gen10
Intel Xeon-G 6226R 2.9GHz 16-core * 2
HPE 32GB (1 x 32GB) Dual Rank x4 DDR4-3200 * 8
HPE 480G SSD * 2
HPE 8TB SAS 7200 LFF * 40
Ethernet 10Gb 2-port BASE-T * 1
(slave) HPE Apollo n2800 Gen10 Plus * 2
每一台 4 個node,每個node規格如下
HPE ProLiant XL220n Gen10 Plus 1U Node
Intel Xeon-Gold 6326 2.9GHz 16-core 185w * 2
HPE 32GB (1x32GB) Dual Rank x4 DDR4-3200 * 4
HPE 1.2TB SAS 12G Mission Critical 10K SFF * 3
Broadcom BCM57416 Ethernet 10Gb 2-port BASE-T * 1
sbatch
squeue
sinfo
scancel
#! /bin/bash
#Batch Job Parameters
#SBATCH --partition=normal
#SBATCH --job-name=lwfa
#SBATCH -n 32 # Number of MPI tasks (i.e. processes)
#SBATCH -N 8 # Maximum number of nodes to be allocated
cd $SLURM_SUBMIT_DIR
echo $SLURM_SUBMIT_DIR | mpirun -np 256 /opt/conda/envs/EPOCH/bin/epoch1d