Я пытаюсь отправить работу с slurm. Однако работа не выполняется, если я использую srun
или mpirun
. Однако он отлично работает с mpiexec
, хотя и работает только с одним процессом, несмотря на выделение нескольких узлов и нескольких ядер.
Фактически используется следующая команда:
srun /nfs/home/6/sanjeevis/dns/lb3d/src/lbe -f input-default
Вот ошибка, которую я получаю с srun/mpirun
:
[mpiexec@n1581] match_arg (utils/args/args.c:163): unrecognized argument pmi_args
[mpiexec@n1581] HYDU_parse_array (utils/args/args.c:178): argument matching returned error
[mpiexec@n1581] parse_args (ui/mpich/utils.c:1642): error parsing input array
[mpiexec@n1581] HYD_uii_mpx_get_parameters (ui/mpich/utils.c:1694): unable to parse user arguments
Код компилируется нормально, но я сталкиваюсь с проблемами из-за slurm. Любая помощь по этому поводу приветствуется.
Изменить: вот результат для which mpirun, mpiexec, and ldd
исполняемого файла:
/nfs/apps/MPI/openmpi/3.1.3/gnu/6.5.0/cuda/9.0/bin/mpirun
/nfs/apps/ParaView/5.8/binary/bin/mpiexec
linux-vdso.so.1 => (0x00007fff78255000)
libmpi.so.12 => /nfs/apps/Compilers/Intel/ParallelStudio/2016.3.067/impi/5.1.3.210/intel64/lib/release_mt/libmpi.so.12 (0x00002ae6cb57d000)
libz.so.1 => /nfs/apps/Libraries/zlib/1.2.11/system/lib/libz.so.1 (0x00002ae6cbd4c000)
libmpifort.so.12 => /nfs/apps/Compilers/Intel/ParallelStudio/2016.3.067/impi/5.1.3.210/intel64/lib/libmpifort.so.12 (0x00002ae6cbf67000)
libdl.so.2 => /lib64/libdl.so.2 (0x00002ae6cc315000)
librt.so.1 => /lib64/librt.so.1 (0x00002ae6cc519000)
libpthread.so.0 => /lib64/libpthread.so.0 (0x00002ae6cc721000)
libm.so.6 => /lib64/libm.so.6 (0x00002ae6cc93e000)
libc.so.6 => /lib64/libc.so.6 (0x00002ae6ccc40000)
libgcc_s.so.1 => /nfs/apps/Compilers/GNU/6.5.0/lib64/libgcc_s.so.1 (0x00002ae6cd003000)
/lib64/ld-linux-x86-64.so.2 (0x0000558ea723a000)
Вот мой сценарий задания.
--mca
и получаетunrecognized argument mca
по ошибке. В моем случае я не передаюpmi_args
в качестве аргумента и не знаю, откуда он. - person SKPS   schedule 22.06.2020which mpirun
,which mpiexec
иldd /nfs/home/6/sanjeevis/dns/lb3d/src/lbe
, чтобы выяснить, какая библиотека MPI используется и кем. - person Gilles Gouaillardet   schedule 24.06.2020mpirun
от Open MPI, mpiexec, вероятно, является встроенным MPICH от Paraview, а ваше приложение построено с использованием Intel MPI. попробуйте вместо этого использовать/nfs/apps/Compilers/Intel/ParallelStudio/2016.3.067/impi/5.1.3.210/bin/mpirun
(или/nfs/apps/Compilers/Intel/ParallelStudio/2016.3.067/impi/5.1.3.210/bin64/mpirun
). - person Gilles Gouaillardet   schedule 24.06.2020srun
, вам сначала нужноexport I_MPI_PMI_LIBRARY=/path/to/slurm/pmi/library/libpmi.so
- person Gilles Gouaillardet   schedule 24.06.2020mca
). Так что раньше я чувствовал, что здесь все сложнее.pmi_args
ошибка кажется распространенной, но не рассматривается подробно. Так что я считаю, что эти вопросы и ответы помогут форуму. - person SKPS   schedule 26.06.2020