Scripts configurados para clústers con gestor SLURM.
| Script | Trabajo que lanza | Nodos | Cores | Memoria | Tiempo máx |
|---|---|---|---|---|---|
ex1.sh |
Ejemplo básico (hostname) | 1 | 1 | Default | Default |
ex2.sh |
Por definir | - | - | - | - |
ex3.sh |
Por definir | - | - | - | - |
ex4.sh |
Por definir | - | - | - | - |
ex5.sh |
Por definir | - | - | - | - |
#SBATCH --job-name=example # Nombre del trabajo
#SBATCH --partition=general # Partición/cola
#SBATCH -n 1 # Número de tareas
#SBATCH --output=example_%j.out # Archivo de salida
#SBATCH --error=example_%j.err # Archivo de error
#SBATCH --mail-user=usuario@email.com
#SBATCH --mail-type=ALL # NotificacionesLos módulos específicos dependen del clúster. Ejemplo típico:
# En el script de trabajo
module load gcc openmpi lammps
# o
module load python anaconda3# 1. Preparar inputs en local
# 2. Copiar al clúster
rsync -avz lammps/inputs/ usuario@cluster:/ruta/trabajo/
# 3. Enviar trabajo
sbatch hpc/ex1.sh
# 4. Monitorear
squeue -u $USER
# 5. Cancelar (si es necesario)
scancel <job_id>
# 6. Recuperar resultados
rsync -avz usuario@cluster:/ruta/trabajo/outputs/ lammps/outputs/squeue -u $USER # Ver trabajos en cola
sinfo # Ver estado de nodos
sacct # Ver trabajos completados
scancel <job_id> # Cancelar trabajo
scontrol show job <id> # Ver detalles de trabajo