我想使用qsub提交一个作业,它运行一些使用Numpy的Python代码。Numpy安装在我登录集群时激活的conda虚拟环境中,如果我只需在Python命令行解释器中调用import numpy,就可以导入它。 但是,当我使用qsub提交作业时,它会尝试在不使用该环境的情况下运行作业。经过一些测试,如果我使用-V选项传入所有变量,似乎可以让qsub在正确的环境中运行。 然而,这会使脚本的其他部分变得混乱。如果我可以只传入让qsub在正确的环境中运行所需的内容,那就更好了。我该怎么做呢? 附注:解决方案here对我不起作用;错误是Unable to locate a modulefile f
在尝试运行snakemake时,我总是必须安装/下载conda。
(snakemake) (ec2-user)$ bash run_snakemake.sh
Building DAG of jobs...
Creating conda environment ../envs/svg_env.yaml...
Downloading and installing remote packages.
有预装的方法吗?我注意到conda安装在.snakemake/文件夹中。
我有一个简单的Snakefile,我有一个使用YAML配置文件中定义的Conda环境的规则。
但是,在运行此Snakefile时,Snakemake不激活Conda环境,并返回此错误:
Error in rule read_file:
jobid: 0
conda-env: /data/projects/testproject/.snakemake/conda/805d8d2a
RuleException:
CalledProcessError in line 5 of /data/projects/testproject/scripts/snake/proc
我定义了要传递给shell脚本的envvars。 envvars:
"PASS" 如果我忘记在shell中指定它们,使用snakemake -n的预演将提醒我设置它。执行在我的本地机器上运行良好,但是我没有设法将envvar传递到我的集群环境中。尽管我设置了环境变量,但我在集群执行后遇到了下面的snakemake错误。由于snakemake错误,作业永远不会启动。 WorkflowError in line 10 of /home/workflows/Snakefile:
The following environment variables are requeste
最近,我使用的指南创建了一个Snakemake。我成功地安装了配置文件,并且它在直接调用路径时确实工作。但是,当使用配置文件名称时,如
snakemake --profile slurm --dry-run
我知道错误:
Error: profile given but no config.yaml found. Profile has to be given as
either absolute path, relative path or name of a directory available in either
/etc/xdg/snakemake or /home/GROUP/
当尝试在我们的一个集群上运行一些使用wrappers的Snakemake工作流时,我遇到了作业失败的问题,错误如下: WorkflowError:
Failed to open source file https://github.com/snakemake/snakemake-wrappers/raw/0.77.0/bio/cutadapt/se/environment.yaml
ConnectionError: HTTPSConnectionPool(host='github.com', port=443): Max retries exceeded with url: