Skip to content

Latest commit

 

History

History

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 
 
 
 
 

README.md

Scripts de Supercómputo (HPC)

Clúster objetivo

Scripts configurados para clústers con gestor SLURM.

Gestor de colas: SLURM

Scripts disponibles

Script Trabajo que lanza Nodos Cores Memoria Tiempo máx
ex1.sh Ejemplo básico (hostname) 1 1 Default Default
ex2.sh Por definir - - - -
ex3.sh Por definir - - - -
ex4.sh Por definir - - - -
ex5.sh Por definir - - - -

Configuración típica

#SBATCH --job-name=example      # Nombre del trabajo
#SBATCH --partition=general     # Partición/cola
#SBATCH -n 1                    # Número de tareas
#SBATCH --output=example_%j.out # Archivo de salida
#SBATCH --error=example_%j.err  # Archivo de error
#SBATCH --mail-user=usuario@email.com
#SBATCH --mail-type=ALL         # Notificaciones

Módulos de entorno requeridos

Los módulos específicos dependen del clúster. Ejemplo típico:

# En el script de trabajo
module load gcc openmpi lammps
# o
module load python anaconda3

Workflow típico

# 1. Preparar inputs en local
# 2. Copiar al clúster
rsync -avz lammps/inputs/ usuario@cluster:/ruta/trabajo/

# 3. Enviar trabajo
sbatch hpc/ex1.sh

# 4. Monitorear
squeue -u $USER

# 5. Cancelar (si es necesario)
scancel <job_id>

# 6. Recuperar resultados
rsync -avz usuario@cluster:/ruta/trabajo/outputs/ lammps/outputs/

Comandos útiles SLURM

squeue -u $USER          # Ver trabajos en cola
sinfo                    # Ver estado de nodos
sacct                    # Ver trabajos completados
scancel <job_id>         # Cancelar trabajo
scontrol show job <id>   # Ver detalles de trabajo