ADF sur Jean Zay

Présentation

ADF est un logiciel de modélisation moléculaire utilisant la théorie de la fonctionnelle de la densité.

Liens utiles

Versions disponibles

VersionModules à charger Commentaires
2019.104 MPI CUDAadf/2019.104-mpi-cuda cuda/10.1.1Version de production CPU/GPU

Informations sur le portage GPU

Toutes les fonctionnalités d'ADF ne sont pas disponibles sur GPU. Veuillez consulter la page dédiée sur le site d'ADF si vous souhaitez utiliser cette version.

Exemple d'utilisation sur la partition CPU

adf.slurm
#!/bin/bash
#SBATCH --nodes=1            # Number of nodes
#SBATCH --ntasks-per-node=40 # Number of tasks per node
#SBATCH --cpus-per-task=1    # Number of OpenMP threads per task
#SBATCH --hint=nomultithread # Disable hyperthreading
#SBATCH --job-name=ADF               # Jobname
#SBATCH --output=ADF.o%j           # Output file
#SBATCH --error=ADF.o%j           # Error file
#SBATCH --time=10:00:00      # Expected runtime HH:MM:SS (max 100h)
##
## Please, refer to comments below for
## more information about these 4 last options.
##SBATCH --account=<account>@cpu       # To specify cpu accounting: <account> = echo $IDRPROJ
##SBATCH --partition=<partition>       # To specify partition (see IDRIS web site for more info)
##SBATCH --qos=qos_cpu-dev      # Uncomment for job requiring less than 2 hours
##SBATCH --qos=qos_cpu-t4      # Uncomment for job requiring more than 20h (only one node)
 
# Manage modules
module purge
module load adf/2019.104-mpi-cuda
 
export SCM_TMPDIR=$JOBSCRATCH
 
# Execution
./opt.inp

Exemple d'utilisation sur la partition GPU

adf.slurm
#!/bin/bash
#SBATCH --nodes=1            # Number of nodes
#SBATCH --gres=gpu:4        # Allocate 4 GPUs per node
#SBATCH --ntasks-per-node=40 # Number of tasks per node
#SBATCH --cpus-per-task=1    # Number of OpenMP threads per task
#SBATCH --hint=nomultithread # Disable hyperthreading
#SBATCH --job-name=ADF               # Jobname
#SBATCH --output=ADF.o%j           # Output file
#SBATCH --error=ADF.o%j           # Error file
#SBATCH --time=10:00:00      # Expected runtime HH:MM:SS (max 100h)
##
## Please, refer to comments below for
## more information about these 4 last options.
##SBATCH --account=<account>@gpu       # To specify cpu accounting: <account> = echo $IDRPROJ
##SBATCH --partition=<partition>       # To specify partition (see IDRIS web site for more info)
##SBATCH --qos=qos_gpu-dev      # Uncomment for job requiring less than 2 hours
##SBATCH --qos=qos_gpu-t4      # Uncomment for job requiring more than 20h (only one node)
# Cleans out the modules loaded in interactive and inherited by default
module purge
 
# Load the necessary modules 
module load adf/2019.104-mpi-cuda cuda/10.1.1
 
# JOBSCRATCH is automatically deleted at the end of the job
export SCM_TMPDIR=$JOBSCRATCH
 
# Execution
./opt.inp

Remarques

  • Les jobs ont tous des ressources définies dans Slurm par une partition et une “Qualité de Service” QoS (Quality of Service) par défaut. Vous pouvez en modifier les limites en spécifiant une autre partition et/ou une QoS comme indiqué dans notre documentation détaillant les partitions et les Qos.
  • Pour les comptes multi-projets ainsi que ceux ayant des heures CPU et GPU, il est indispensable de spécifier l'attribution d'heures sur laquelle décompter les heures de calcul du job comme indiqué dans notre documentation détaillant la gestion des heures de calcul.