AMBER

From CC Doc
Jump to navigation Jump to search
This page is a translated version of the page AMBER and the translation is 47% complete.
Outdated translations are marked like this.
Other languages:
English • ‎français

Introduction

Amber désigne un ensemble d'applications pour effectuer des simulations en dynamique moléculaire, particulièrement avec les biomolécules. Chacune des applications porte un nom différent, mais l'ensemble fonctionne plutôt bien et constitue un outil puissant pour effectuer plusieurs calculs usuels.

Amber vs. AmberTools

We have modules for both Amber and AmberTools available in our software stack.

  • The AmberTools (module ambertools) contain a number of tools for preparing and analysing simulations, as well as sander to perform molecular dynamics simulations, all of which are free and open source.
  • Amber (module amber) contains everything that is included in ambertools, but adds the advanced pmemd program for molecular dynamics simulations.

To see a list of installed versions and which other modules they depend on, you can use the module spider command or check the Available software page.


Loading AmberTools 21

Currently, AmberTools 21 is available on all clusters.

Non-GPU version

module load StdEnv/2020 gcc/9.3.0 openmpi/4.0.3 ambertools/21
source $EBROOTAMBERTOOLS/amber.sh

Provides the following MD engines: sander, sander.LES, sander.LES.MPI, sander.MPI, and sander.OMP

GPU version

module load StdEnv/2020 gcc/9.3.0 cuda/11.0 openmpi/4.0.3 ambertools/21
source $EBROOTAMBERTOOLS/amber.sh

Provides the following MD engines: sander, sander.LES, sander.LES.MPI, sander.MPI, sander.OMP, sander.quick.cuda, and sander.quick.cuda.MPI

Loading Amber 20

Currently, Amber20 is available on all clusters.

Non-GPU version

module load StdEnv/2020  gcc/9.3.0 openmpi/4.0.3 amber/20.9-20.15

Provides all MD programs available in AmberTools/20 plus pmemd (serial) and pmemd.MPI (parallel).

Versions avec GPU

module load StdEnv/2020  gcc/9.3.0  cuda/11.0  openmpi/4.0.3 amber/20.9-20.15

Provides all MD programs available in ambertools/20 plus pmemd (serial), pmemd.MPI (parallel), pmemd.cuda (single GPU), and pmemd.cuda.MPI (multi - GPU)

Charger Amber 18

Toutes les grappes offrent maintenant les versions 18 et 18.10-18.11.

Versions sans GPU

module load gcc/5.4.0 openmpi/2.1.1 amber/18 scipy-stack/2019a

ou

module load gcc/5.4.0 openmpi/2.1.1 amber/18.10-18.11 scipy-stack/2019a

GPU versions

module load gcc/5.4.0  cuda/9.0.176  openmpi/2.1.1 amber/18 scipy-stack/2019a

ou

module load gcc/5.4.0  cuda/9.0.176  openmpi/2.1.1 amber/18.10-18.11 scipy-stack/2019a

Problèmes connus

Le module AMBER/18-10-18.11 ne fournit pas des calculs MMPBSA fiables; utilisez plutôt les modules AMBER/18 ou AMBER/16.

Charger Amber 16

Amber 16 est présentement disponible uniquement sur Graham en raison de contraintes de licence; sa construction a été faite avec l'environnement StdEnv/2016.4. Avant de charger amber/16, chargez StdEnv/2016.4 avec

[name@server $] module load StdEnv/2016.4
[name@server $] module load amber/16 

Cette version n'offre pas toutes les fonctionnalités Python.

Soumettre des tâches

Pour des renseignements généraux sur la soumission d'une tâche, consultez Exécuter des tâches.

Dans les exemples qui suivent, modifiez la commande module load comme indiqué dans les exemples précédents pour utiliser la version la plus récente.

L'exemple suivant est un script SANDER pour une tâche en série. Les fichiers d'entrée sont in.md, crd.md.23, prmtop.

File : amber_serial.sh

#!/bin/bash
 #SBATCH --ntasks=1             # 1 cpu, serial job
 #SBATCH --mem-per-cpu=2G       # memory per cpu
 #SBATCH --time=00-01:00        # time (DD-HH:MM)
 #SBATCH --output=cytosine.log  # .log file from scheduler
 module load StdEnv/2016.4
 module load amber/16
 sander -O  -i in.md  -c crd.md.23  -o cytosine.out


L'exemple suivant est un script SANDER mysub.sh pour une tâche en parallèle.

File : amber_parallel.sh

#!/bin/bash
 #SBATCH --nodes=1 --ntasks-per-node=32  # 1 node with 32 cpus, MPI job
 #SBATCH --mem-per-cpu=2G                # memory, should be less than 4G
 #SBATCH --time=00-01:00                 # time (DD-HH:MM)
 #SBATCH --output=sodium.log             # output .log file
 	
 module load StdEnv/2016.4
 module load amber/16
 srun sander.MPI -ng 2 -groupfile groups


Le script peut être modifié selon les besoins en ressources de calcul d'une tâche (consultez Exécuter des tâches).