Gromacs 2024.2
ウェブページ
バージョン
2024.2
ビルド環境
- GCC 13.1.1 (gcc-toolset-13)
- Open MPI 4.1.6
- CP2K 2023.1 (倍精度 MPI 版のみ)
必要なファイル
- gromacs-2024.2.tar.gz
- regressiontests-2024.2.tar.gz
- 導入済みの CP2K 2023.1 (倍精度 MPI 版のみ)
ビルド手順
#!/bin/sh
VERSION=2024.2
INSTALL_PREFIX=/apl/gromacs/${VERSION}
#INSTALL_PREFIX=/home/users/qf7/Software/Gromacs/2024.2/gcc13-ompi416BASEDIR=/home/users/${USER}/Software/Gromacs/${VERSION}/
GROMACS_TARBALL=${BASEDIR}/gromacs-${VERSION}.tar.gz
REGRESSION_TARBALL=${BASEDIR}/regressiontests-${VERSION}.tar.gz
WORKDIR=/gwork/users/${USER}
REGRESSION_PATH=${WORKDIR}/regressiontests-${VERSION}PARALLEL=12
export LANG=C#---------------------------------------------------------------------
umask 0022module -s purge
module -s load gcc-toolset/13
module -s load openmpi/4.1.6/gcc13
#module -s load cmake/3.28.3cd ${WORKDIR}
if [ -d gromacs-${VERSION} ]; then
mv gromacs-${VERSION} gromacs_erase
rm -rf gromacs_erase &
fiif [ -d regressiontests-${VERSION} ]; then
mv regressiontests-${VERSION} regressiontests_erase
rm -rf regressiontests_erase &
fi
tar xzf ${GROMACS_TARBALL}
tar xzf ${REGRESSION_TARBALL}
cd gromacs-${VERSION}
# single precision, no MPI
mkdir rccs-s
cd rccs-s
cmake .. \
-DCMAKE_INSTALL_PREFIX=${INSTALL_PREFIX} \
-DCMAKE_VERBOSE_MAKEFILE=ON \
-DCMAKE_C_COMPILER=gcc \
-DCMAKE_CXX_COMPILER=g++ \
-DGMX_MPI=OFF \
-DGMX_GPU=OFF \
-DGMX_DOUBLE=OFF \
-DGMX_THREAD_MPI=ON \
-DGMX_BUILD_OWN_FFTW=ON \
-DREGRESSIONTEST_DOWNLOAD=OFF \
-DREGRESSIONTEST_PATH=${REGRESSION_PATH}
make -j${PARALLEL} && make check && make install
cd ..
# double precision, no MPI
mkdir rccs-d
cd rccs-d
cmake .. \
-DCMAKE_INSTALL_PREFIX=${INSTALL_PREFIX} \
-DCMAKE_VERBOSE_MAKEFILE=ON \
-DCMAKE_C_COMPILER=gcc \
-DCMAKE_CXX_COMPILER=g++ \
-DGMX_MPI=OFF \
-DGMX_GPU=OFF \
-DGMX_DOUBLE=ON \
-DGMX_THREAD_MPI=ON \
-DGMX_BUILD_OWN_FFTW=ON \
-DREGRESSIONTEST_DOWNLOAD=OFF \
-DREGRESSIONTEST_PATH=${REGRESSION_PATH}
make -j${PARALLEL} && make check
make install
cd ..
# single precision, with MPI
mkdir rccs-mpi-s
cd rccs-mpi-s
cmake .. \
-DCMAKE_INSTALL_PREFIX=${INSTALL_PREFIX} \
-DCMAKE_VERBOSE_MAKEFILE=ON \
-DCMAKE_C_COMPILER=mpicc \
-DCMAKE_CXX_COMPILER=mpicxx \
-DGMX_MPI=ON \
-DGMX_GPU=OFF \
-DGMX_DOUBLE=OFF \
-DGMX_THREAD_MPI=OFF \
-DGMX_BUILD_OWN_FFTW=ON \
-DREGRESSIONTEST_DOWNLOAD=OFF \
-DREGRESSIONTEST_PATH=${REGRESSION_PATH}
make -j${PARALLEL} && make check && make install
cd ..
CP2KROOT=/apl/cp2k/2023.1
CP2KROOT_TC=${CP2KROOT}/tools/toolchain
# double precision, with MPI
mkdir rccs-mpi-d
cd rccs-mpi-d
cmake .. \
-DCMAKE_INSTALL_PREFIX=${INSTALL_PREFIX} \
-DCMAKE_VERBOSE_MAKEFILE=ON \
-DCMAKE_C_COMPILER=mpicc \
-DCMAKE_CXX_COMPILER=mpicxx \
-DGMX_MPI=ON \
-DGMX_GPU=OFF \
-DGMX_DOUBLE=ON \
-DGMX_THREAD_MPI=OFF \
-DGMX_CP2K=ON \
-DBUILD_SHARED_LIBS=OFF \
-DGMXAPI=OFF \
-DGMX_INSTALL_NBLIB_API=OFF \
-DCP2K_DIR=${CP2KROOT}/lib/rccs/psmp \
-DGMX_FFT_LIBRARY=fftw3 \
-DCMAKE_PREFIX_PATH=${CP2KROOT_TC}/install/fftw-3.3.10 \
-DGMX_EXTERNAL_BLAS=ON \
-DGMX_BLAS_USER=${CP2KROOT_TC}/install/openblas-0.3.21/lib/libopenblas.so \
-DGMX_EXTERNAL_LAPACK=ON \
-DGMX_LAPACK_USER=${CP2KROOT_TC}/install/openblas-0.3.21/lib/libopenblas.so \
-DREGRESSIONTEST_DOWNLOAD=OFF \
-DREGRESSIONTEST_PATH=${REGRESSION_PATH}
make -j${PARALLEL} && make check
make install
cd ..
テスト
すべて問題無く通過
メモ
- gcc11 では 2023 と同じく速度が出ないことを確認。gcc9, 13 では速度が出ている。gcc9, 11, 13 のみ検証。gcc10, 12 でも 2023 時と同様に速度が出ない可能性がある。
- Colvars は特に指定しなくても有効になる模様。
- AOCC 4.2 や Intel 2023, 2024 は GCC よりも若干速度が出にくい気配。
- Intel については 2024 よりも 2023 の方がわずかに速度が出ているように見える。
- 倍精度 MPI 版には CP2K 2023.1 をリンクしているため QM/MM 計算が実行可能。MPI 並列計算も可能。
- https://github.com/bioexcel/gromacs-2022-cp2k-tutorial の egfp から抽出した実行サンプルを samples/cp2k 以下に配置。(このチュートリアル中の手順は 2024 で実行する場合には少し変更する必要があるかもしれない)
- qmmm-cp2k-qmfilenames の扱いが上記チュートリアル作成時から変わっているのか、明示的に指定しないとおかしなファイル名を使おうとしてエラーになるケースを確認。qmmm-cp2k-qmfilenames = cp2k_internal のように名前を指定することで回避。
- CMAKE_PREFIX_PATH=${CP2KROOT_TC}/install/fftw-3.3.10 の指定は CP2K の toolchain 中の fftw を指定するために必要
- この fftw では --enable-sse と --enable-sse2 が指定されていないとの warning 有り。(--enable-avx は指定されていると思われる)
- (CP2K と Gromacs での OpenMPI のマイナーバージョンの差異(4.1.4 (hpc-x) vs 4.1.6)については特に問題無いと思われる。)
- gmxapi はシステムの python のバージョンが足りないため無効です。