사용자 프로그래밍 환경
Last updated
Last updated
conda/pytorch_1.11.0, conda/tensorflow_2.4.1 module은 pytorch/tensorflow 사용을 위한 라이브러리가 설치 되어있는 module로, conda 명령을 사용하려면 python/3.7.1 module 적용 후 conda 명령을 사용해야 한다.
Neuron시스템에서의 인공지능 프레임워크는 anaconda 환경을 사용하는 것을 권장함 (라이선스 조건 확인)
사용자 요구 기반의 Singularity 컨테이너 이미지를 빌드 및 구동하여 사용자 프로그램을 실행할 수 있음
[별첨3] Singularity 컨테이너 사용법’을 참조
※ GPU가 장착되지 않은 노드를 사용하기 위해서는 None CUDA MPI 라이브러리(예 : mpi/openmpi-4.1.1) 모듈을 사용해야 한다.
※ gh200_1 파티션은 AArch64 아키텍처로 ARM_ 접두어가 붙은 전용 module을 활용해야 한다.
gh200_1 계산노드에서는 x86_64용 바이너리 실행 시 오류 발생
x86_64 아키텍처(뉴론 로그인 노드, gh200_1 파티션을 제외한 모든 계산노드)에서 AArch64용 바이너리 실행 시 오류 발생
※ 사용자 편의를 위해 "module" 명령어는 "ml" 명령어로 축약하여 사용할 수 있음
사용 가능한 모듈 목록 출력 사용할 수 있는 컴파일러, 라이브러리 등의 모듈 목록을 확인할 수 있다
사용할 모듈 추가 사용하고자 하는 컴파일러, 라이브러리 등의 모듈을 추가할 수 있다. 사용할 모듈들을 한번에 추가할 수 있다.
사용 모듈 삭제 필요 없는 모듈을 제거한다. 이 때 한번에 여러 개의 모듈을 삭제할 수 있다.
사용 모듈 목록 출력 현재 설정된 모듈 목록을 확인할 수 있다.
전체 사용 모듈 일괄 삭제
모듈 설치 경로 확인
모듈 찾기
사용자 모듈 모음(collection) 저장 관리
순차 프로그램은 병렬 프로그램 환경을 고려하지 않은 프로그램을 말한다. 즉, OpenMP, MPI와 같은 병렬 프로그램 인터페이스를 사용하지 않는 프로그램으로써, 하나의 노드에서 하나의 프로세서만 사용해 실행되는 프로그램이다. 순차 프로그램 컴파일 시 사용되는 컴파일러별 옵션은 병렬 프로그램을 컴파일 할 때도 그대로 사용되므로, 순차 프로그램에 관심이 없다 하더라도 참조하는 것이 좋다.
Intel 컴파일러를 사용하기 위해서 필요한 버전의 Intel 컴파일러 모듈을 추가하여 사용한다. 사용 가능한 모듈은 module avail로 확인할 수 있다.
※ 프로그래밍 도구 설치 현황 표를 참고하여 사용가능 버전 확인
컴파일러 종류
Intel 컴파일러 사용 예제 다음은 test 예제파일을 intel 컴파일러로 컴파일하여 실행파일 test.exe를 만드는 예시임
※ /apps/shell/job_examples 에서 작업제출 test 예제파일을 복사하여 사용 가능
GNU 컴파일러를 사용하기 위해서 필요한 버전의 GNU 컴파일러 모듈을 추가하여 사용한다. 사용 가능한 모듈은 module avail로 확인할 수 있다.
※ 프로그래밍 도구 설치 현황 표를 참고하여 사용가능 버전 확인
※ 반드시 "gcc/4.8.5" 이상 버전을 사용
컴파일러 종류
GNU 컴파일러 사용 예제
다음은 test 예제파일을 GNU 컴파일러로 컴파일하여 실행파일 test.exe를 만드는 예시임
※ /apps/shell/job_examples 에서 작업제출 test 예제파일을 복사하여 사용 가능
PGI 컴파일러를 사용하기 위해서 필요한 버전의 PGI 컴파일러 모듈을 추가하여 사용한다. 사용 가능한 모듈은 module avail로 확인할 수 있다.
※ 프로그래밍 도구 설치 현황 표를 참고하여 사용가능 버전 확인
컴파일러 종류
PGI 컴파일러 사용 예제
다음은 test 예제파일을 PGI 컴파일러로 컴파일하여 실행파일 test.exe를 만드는 예시임
※ /apps/shell/job_examples 에서 작업제출 test 예제파일을 복사하여 사용 가능
OpenMP는 컴파일러 지시자만으로 멀티 스레드를 활용할 수 있도록 간단하게 개발된 기법으로 OpenMP를 사용한 병렬 프로그램 컴파일 시 사용되는 컴파일러는 순차프로그램과 동일하며, 컴파일러 옵션을 추가하여 병렬 컴파일을 할 수 있는데, 현재 대부분의 컴파일러가 OpenMP 지시자를 지원한다.
OpenMP 프로그램 컴파일 예시 (Intel 컴파일러)
다음은 openMP를 사용하는 test_omp 예제파일을 intel 컴파일러로 컴파일하여 실행파일 test_omp.exe를 만드는 예시임
OpenMP 프로그램 컴파일 예시 (GNU 컴파일러)
다음은 openMP를 사용하는 test_omp 예제파일을 GNU 컴파일러로 컴파일하여 실행파일 test_omp.exe를 만드는 예시임
OpenMP 프로그램 컴파일 예시 (PGI 컴파일러)
다음은 openMP를 사용하는 test_omp 예제파일을 PGI 컴파일러로 컴파일하여 실행파일 test_omp.exe를 만드는 예시임
사용자는 다음 표의 MPI 명령을 실행할 수 있는데, 이 명령은 일종의 wrapper로써 .bashrc를 통해 지정된 컴파일러가 소스를 컴파일하게 된다.
mpicc로 컴파일을 하더라도, 옵션은 wrapping되는 본래의 컴파일러에 해당하는 옵션을 사용해야 한다.
MPI 프로그램 컴파일 예시 (Intel 컴파일러)
다음은 MPI를 사용하는 test_mpi 예제파일을 intel 컴파일러로 컴파일하여 실행파일 test_mpi.exe를 만드는 예시임
MPI 프로그램 컴파일 예시 (GNU 컴파일러)
다음은 MPI를 사용하는 test_mpi 예제파일을 GNU 컴파일러로 컴파일하여 실행파일 test_mpi.exe를 만드는 예시임
MPI 프로그램 컴파일 예시 (PGI 컴파일러)
다음은 MPI를 사용하는 test_mpi 예제파일을 PGI 컴파일러로 컴파일하여 실행파일 test_mpi.exe를 만드는 예시임
CUDA + MPI 프로그램 컴파일 예시
※ intel 컴파일러 사용 시, gcc/10.2.0 대신 intel/19.1.2 module을 load을 적용
2024년 11월 22일에 마지막으로 업데이트되었습니다.
컴파일러
gcc/4.8.5
gcc/10.2.0
intel/19.1.2
nvidia_hpc_sdk/22.7
nvidia_hpc_sdk/24.1
MPI 라이브러리
cudampi/mvapich2-2.3.6
cudampi/openmpi-3.1.5
cudampi/openmpi-4.1.1
mpi/impi-19.1.2
mpi/mvapich2-2.3.6
mpi/openmpi-3.1.5
mpi/openmpi-4.1.1
라이브러리
common/nccl-rdma-sharp-2.1.0
hdf4/4.2.13
hdf5/1.10.2
hdf5/1.12.0
lapack/3.7.0
lapack/3.10.0
libxc/4.3.4
libxc/5.2.3
netcdf/4.6.1
MPI 의존 라이브러리
fftw_mpi/2.1.5
fftw_mpi/3.3.7
CUDA 라이브러리
cuda/11.4
cuda/12.3
CUDA 라이브러리(CUDA 라이브러리만 설치된 버전)
cuda/10.0
cuda/10.1
cuda/10.2
cuda/11.0
cuda/11.1
cuda/11.2
cuda/11.3
cuda/11.5
cuda/11.6
cuda/11.7
cuda/11.8
cuda/12.1
cuda/12.2
소프트웨어
R/3.5.0
R/4.2.1
cmake/3.16.9
cmake/3.26.2
cotainr/2023.11.0
gaussian/g16.b01
gaussian/g16.c01
gaussian/g16.c02
gaussian/g16
git/2.9.3
git/2.35.1
gnu-parallel/2022.03.22
gromacs/2021.3
gromacs/2023.3
htop/3.0.5
java/openjdk-11.0.1
java/openjdk-23
lammps/23Jun2022_a100
lammps/23Jun2022_v100
lammps/27Oct2021_a100
lammps/27Oct2021_v100
namd/2.14
ncl/6.6.2
nvtop/1.1.0
python/3.7.1
python/3.9.5
python/3.12.4
qe/7.0_a100
qe/7.0_v100
qe/7.2_a100
qe/7.2_v100
qe/7.3_a100
qe/7.3_v100
singularity/3.6.4
singularity/3.9.7
singularity/3.11.0
singularity/4.1.0
ngc
ngc/caffe:20.03-py3
ngc/gromacs:2020.2
ngc/lammps:29Oct2020
ngc/paraview:5.9.0-py3
ngc/pytorch:20.09-py3
ngc/pytorch:20.12-py3
ngc/pytorch:22.03-py3
ngc/pytorch:23.12-py3
ngc/qe:6.7
ngc/tensorflow:22.03-tf1-py3
ngc/tensorflow:22.03-tf2-py3
conda 패키지 환경
conda/pytorch_1.11.0
conda/pytorch_1.12.0
conda/pytorch_2.5.0
conda/tensorflow_2.4.1
conda/tensorflow_2.10.0
conda/tensorflow_2.16.1
AArch64 아키텍처 (gh200_1 파티션 전용)
ARM_cmake/3.26.2
ARM_cuda/12.3
ARM_cudampi/mvapich2-2.3.6
ARM_cudampi/openmpi-4.1.1
ARM_fftw_mpi/3.3.7
ARM_gcc/11.4.1
ARM_gromacs/2023.3
ARM_htop/3.0.5
ARM_lammps/23Jun2022
ARM_nvidia_hpc_sdk/24.1
ARM_nvtop/1.1.0
ARM_python/3.12.4
ARM_qe/7.3
icc / icpc
C / C++
.C, .cc, .cpp, .cxx,.c++
ifort
F77/F90
.f, .for, .ftn, .f90, .fpp, .F, .FOR, .FTN, .FPP, .F90
gcc / g++
C / C++
.C, .cc, .cpp, .cxx,.c++
gfortran
F77/F90
.f, .for, .ftn, .f90, .fpp, .F, .FOR, .FTN, .FPP, .F90
pgcc / pgc++
C / C++
.C, .cc, .cpp, .cxx,.c++
pgfortran
F77/F90
.f, .for, .ftn, .f90, .fpp, .F, .FOR, .FTN, .FPP, .F90
icc / icpc / ifort
C / C++ / F77/F90
-qopenmp
gcc / g++ / gfortran
C / C++ / F77/F90
-fopenmp
pgcc / pgc++ / pgfortran
C / C++ / F77/F90
-mp
구분
Intel
GNU
PGI
Fortran
ifort
gfortran
pgfortran
Fortran + MPI
mpiifort
mpif90
mpif90
C
icc
gcc
pgcc
C + MPI
mpiicc
mpicc
mpicc
C++
icpc
g++
pgc++
C++ + MPI
mpiicpc
mpicxx
mpicxx