前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >经验拾忆(纯手工)=> docker-

经验拾忆(纯手工)=> docker-

作者头像
py3study
发布2020-01-03 17:49:21
3780
发布2020-01-03 17:49:21
举报
文章被收录于专栏:python3python3

前言

踩了 5-6个小时的坑,各种测试。人要没了。不过结果我已经满意了。 这篇文章是对 https://segmentfault.com/a/11... 的完善与排初BUG!

大坑1(scrapyd服务bind_address):

我用的Docker (我记得之前不用docker的时候scrapyd的配置文件好像是默认的 0.0.0.0) 但是我发现 Docker容器里面 默认是 bind 127.0.0.1 (真是 f--k了.. 弄了好几个小时没发现) 如果你用的docker, 先在Docker 同级目录下新建一个 default_scrapyd.conf 然后写入如下配置(不用犹豫,全部复制进去即可):

代码语言:javascript
复制
[scrapyd]
eggs_dir    = eggs
logs_dir    = logs
items_dir   =
jobs_to_keep = 5
dbs_dir     = dbs
max_proc    = 0
max_proc_per_cpu = 4
finished_to_keep = 100
poll_interval = 5.0
bind_address = 0.0.0.0
http_port   = 6800
debug       = off
runner      = scrapyd.runner
application = scrapyd.app.application
launcher    = scrapyd.launcher.Launcher
webroot     = scrapyd.website.Root

[services]
schedule.json     = scrapyd.webservice.Schedule
cancel.json       = scrapyd.webservice.Cancel
addversion.json   = scrapyd.webservice.AddVersion
listprojects.json = scrapyd.webservice.ListProjects
listversions.json = scrapyd.webservice.ListVersions
listspiders.json  = scrapyd.webservice.ListSpiders
delproject.json   = scrapyd.webservice.DeleteProject
delversion.json   = scrapyd.webservice.DeleteVersion
listjobs.json     = scrapyd.webservice.ListJobs
daemonstatus.json = scrapyd.webservice.DaemonStatus

最后在你的Dockerfile中末尾写入(视情况而定。 每个人的目录结构都不同)

代码语言:javascript
复制
COPY default_scrapyd.conf /usr/local/lib/python3.6/site-packages/scrapyd/default_scrapyd.conf

大坑2 (docker-compose: 的command多命令问题)

scrapyd部署需要两步:

  1. 先开启 scrapyd 服务 (scrapyd 命令即可)
  2. 再把爬虫程序通过 scrapyd-deploy 推送到 scrapyd服务上

很明显:2 是依赖 1 的。

错误解决方式:

但是,docker-compose command: 只能运行一条命令。 我按照常理使用N种思想想让他支持多条命令:

  1. 起初 用 &&
  2. 用 sh脚本
  3. 这个命令是最荒唐的。。。 网上千篇一律的博客。 百分之80都是互相抄袭的。(然后我还真用了。。)

最荒唐的命令如下:(我一直窃喜,以为找到解决办法了,就一直以这个命令为轴做调试,测试。。。。)

代码语言:javascript
复制
#    command:
#      - /bin/bash 
#      - -c 
#      - |
#        scrapyd 
#        scrapyd-deploy Cython_lin -p Baidu

这个命令有两种结果(这两种结果还tm是随机的。 生无可恋):

  1. scrapyd先执行,直接堵塞。后面命令失效(即使你用& 也解决不了随机启动顺序问题)
  2. scrapyd-deploy Cython_lin -p Baidu 先执行 (直接报错,以为scrapyd还没起来呢)

到此为止::::::: 我上面说的都是错误的方式!!!!!!!!!!!!!! (差点一棵树上勒到死, 既然docker-compose文件内部只能运行一条命令。那么我们拿外面去运行啊!!) (思想已经绝望僵化的我, 这次是真的看见了希望,曙光)

正确解决方式:

docker-compose.yml文件里面只写:

代码语言:javascript
复制
command: scrapyd

然后保存退出, 然后执行 :

代码语言:javascript
复制
docker-compose up -d
# 我们需要让 scrapyd启动一会,才可以启动 scrapy-deploy的(等一小会就行了)

然后继续执行:

代码语言:javascript
复制
docker-compose exec crawl  scrapyd-deploy Cython_lin -p Baidu


特别注意!说明以下!(docker-compose命令有两种方式):
    docker-compose exec      正确
    docker-compose run       错误 (在外面千万不要用这种 (当然我是说我这个业务))

结束语

也许有些错误很小, 但是当你怀疑变多的时候,脑海会出现海量解决问题的分支。 然后机械排BUG, 最终生无可恋。。。。。 其实有时不妨先冷静下来, 然后专注,一锤定音。找出BUG!!!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019/09/29 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 大坑1(scrapyd服务bind_address):
  • 大坑2 (docker-compose: 的command多命令问题)
    • 错误解决方式:
      • 正确解决方式:
      • 结束语
      相关产品与服务
      容器服务
      腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档