首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >如何将脚本参数传递给AWS批量获取并运行

如何将脚本参数传递给AWS批量获取并运行
EN

Stack Overflow用户
提问于 2018-10-12 03:23:35
回答 1查看 5.2K关注 0票数 8

基本示例将生成以下执行:

代码语言:javascript
复制
export BATCH_FILE_TYPE="script"

export BATCH_FILE_S3_URL="s3://my-bucket/my-script"

fetch_and_run.sh script-from-s3 [ <script arguments> ]

其中,脚本参数仅在中提及:

zip这表明它支持BATCH_FILE_TYPE的两个值,“脚本”或“zip”。当您设置“script”时,除了将任何其他参数传递给脚本之外,还会导致fetch_and_run.sh下载单个文件并执行它。

我尝试使用AWS CLI通过--parameters--container-overrides参数(在后者的command键下)传递它们,但是没有从脚本接收到它们。

我不想修改每次运行的Dockerfile ENTRYPOINTfetch_and_run.sh脚本,但我无法理解如何以不同的方式实现这一点。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-10-12 03:41:07

我用aws batch混合使用these example of job definitions实现了这一点:

代码语言:javascript
复制
aws batch submit-job --job-name <job_name> --job-definition <job_def_name> \
  --job-queue <queue_name> \
  --container-overrides '{
    "command": ["<script-from-s3>", "Ref::param1", "Ref::param2"], \
    "environment": [ \
      {"name": "BATCH_FILE_S3_URL", "value": "<script-from-s3>"}, \
      {"name": "BATCH_FILE_TYPE", "value": "script"}]}' \
  --parameters '{"param1": "<param1>", "param2": "<param2>"}'
票数 17
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/52767500

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档