このスクリプトを使用してファイルをダウンロードします。それ以外の場合は、-b
ファイルwget
を1つずつダウンロードしてください。これにより、-b
バックグラウンドで同時にファイルをダウンロードできます。残念ながら、このスクリプトはSLURMでは機能しません。 Slurmでのみ動作しません-b
でした。
ファイルをダウンロードするスクリプト
#!/bin/bash
mkdir data
cd data
for i in 11 08 15 26 ;
do
wget -c -b -q ftp://ftp.sra.ebi.ac.uk/vol1/fastq/SRR116/0${i}/SRR116802${i}/SRR116802${i}_1.fastq.gz
wget -c -b -q ftp://ftp.sra.ebi.ac.uk/vol1/fastq/SRR116/0${i}/SRR116802${i}/SRR116802${i}_2.fastq.gz
done
cd ..
泥スクリプト
#!/bin/bash
#SBATCH --job-name=mytestjob # create a short name for your job
#SBATCH --nodes=2 # node count
#SBATCH --ntasks=2 # total number of tasks across all nodes
#SBATCH --cpus-per-task=2 # cpu-cores per task (>1 if multi-threaded tasks)
#SBATCH --mem-per-cpu=4G # memory per cpu-core (4G is default
#SBATCH --time=10:01:00 # total run time limit (HH:MM:SS)
#SBATCH --array=1-2 # job array with index values 1, 2
#Execution
bash download.sh
ターミナルから:(sbatch slurmsript.sh
役に立たない)no jobid
ベストアンサー1
一連のジョブを使用すると、ファイルを同時にダウンロードできます(各配列ジョブがダウンロードされます)。 wgetをバックグラウンドに入れる必要はありません。実際、私の経験によれば、バックグラウンドでプロセスを開始してslurmスクリプトコマンドラインを「解放」しようとすると、slurmサブミットスクリプトの実行が完了するとslurmはジョブを終了します(ただし、ジョブはまだ実行中の可能性があります)。背景)。だからこれはあなたが望む見通しと泥です!