[实战篇] Python 运维中使用并发

今天从大哥手里接了一个需求:

验证一下新的 Docker 镜像仓库(Docker Registry)是否迁移成功了

简单粗暴的方法就是拿到老仓库中的镜像列表(Image List),在新仓库模拟用户重新拉取(pull)一遍来验证,我们开始


subprocess

如果我们用 Shell 来写,执行 Docker 命令很容易,直接写就是了,但是对结果的判断就不那么友好了(Shell 大神忽略),那么 Python 呢,如何优雅的执行 Linux 命令呢?这里我们用到了一个 Python 标准库(standard module) :

import subprocess

我们都知道,命令执行过程中会有标准输出(stdout)和标准错误(stderror):

def run_cmd(cmd):
    return subprocess.Popen(cmd, 
                  stdout=subprocess.PIPE,
                  stderr=subprocess.PIPE).communicate()

上面代码封装了一个方法,它会启动一个子进程执行命令,并将标准输出和标准错误通过管道(进程间通信最常用的方式)收集

管道其实就是文件描述符,子进程会继承父进程中的所有文件描述符

最后,通过序列解包

stdout, stderr = run_cmd('uname -a')

获取标准输出和标准错误,这个方法我们后面要用到好多

我拿到镜像列表文件了,先使用

cat imagelist | wc -l

查看了一下行数(镜像数量),4254 个,还行,不算太多


思路:

  • 拉取列表中的镜像,拉取成功后将其删除并标记为成功
  • 拉取失败就标记为失败和并记录错误
  • 如果拉取超时,就标记超时

如何标记呢,因为我们将会使用多进程,多个进程间通信还是蛮麻烦的,这里偷个懒:直接使用 append 模式直接将结果写入文件

with open('timeout_image.txt','a') as timeout_file:
    timeout_file.write(image)

我们先写出如何验证一个镜像的逻辑:

def pull_worker(image):
    # ?

公众号代码支持太差了,可以去文末的点击阅读原文查看

后面就仅仅是并发的问题了


sys

首先我们想控制并发数量,最简单是使用 sys 模块

if len(sys.argv) == 4:
    pass
else:
    print “Need three params
    return
    
# 这里同样使用了序列解包,第一个参数是脚本名字,忽略掉
_, file, coreNum, poolNum = sys.argv

这样的程序执行起来像这样:

python check_images.py imagelist 8 5

gevent

然后是实现,我们使用的这个模块需要安装,它是大名鼎鼎的 gevent,为什么使用它,因为我们的任务是 I/O密集 型的,gevent 擅长处理这类任务(有兴趣可以去了解下猴子补丁)

pip install gevent

我们看导入模块的代码:

import gevent.pool
import gevent.monkey
from gevent import Timeout
gevent.monkey.patch_all() # 猴子补丁
from multiprocessing import Process

最后一行也是使用了 Python 的标准库,多进程模块:multiprocessing

不要和我说什么Python 有全局解释器锁(GIL),多进程没有 GIL,多进程没有 GIL,多进程没有 GIL

如何并发呢:

  1. 启动和核数相等的进程(跑满机器,尽快完成任务为目的)
  2. 每个进程里面 docker pull 的并发为 5(gevent 协程池)

所以我们总的并发数就是 40,这样就完成了可控制并发的脚本

代码如下:

def each_process(task_object_list):
    pool = gevent.pool.Pool(int(poolNum))
    pool.map(pull_worker, task_object_list)
    stop = time.time()
    elapsed = stop - start
    print "End precess with {0} s".format(elapsed)

with open(file) as f:     
    for line in f:
        line = line.strip()
        all_task_list.append(line)

print "All task: {0}".format(len(all_task_list))
for sliced_task_list in slice_list(all_task_list, int(coreNum)):
     print "Start process with tasks: {0}".format(len(sliced_task_list))
     p = Process(target=each_process, args=(sliced_task_list,))
     p.start()

这里需要注意的一点是,4254 个镜像,是按照核心数量分组(slice_list),然后交给不同的进程处理的。

原文发布于微信公众号 - 随心DevOps(heart-devops)

原文发表时间:2018-01-10

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏LanceToBigData

细说log4j

可能做过java项目的基本上都是用过log4j,它是用来做java日志的。比如我们做一个项目分为很多的模块,那我们怎么想要知道它什么时候启动了,这时候我们可以使...

1875
来自专栏开源项目

听说,你也在做日志分析? | 码云周刊第 37 期

— 01 — 项目名称:赛克蓝德日志分析软件 seci-log ? 项目简介: 赛克蓝德日志分析软件,主要对日志进行收集,格式化,然后进行分析,日志可以是系...

3409
来自专栏数据小魔方

左手用R右手Python系列——使用多进程进行任务处理

数据抓取中的密集任务处理,往往会涉及到性能瓶颈,这时候如果能有多进程的工具来进行支持,那么往往效率会提升很多。 今天这一篇分享在R语言、Python中使用调用多...

2639
来自专栏逸鹏说道

REDIS操作命令小结

缘由: 最初学过一段时间的Redis的使用,但是后来长时间没有接触,就又忘了,往复这么弄了几次,感觉比较浪费时间,所以今天决定整理一下Redis的常见操作命令,...

3315
来自专栏机器学习和数学

[编程经验] Elasticsearch 初识

Elasticsearch 中文网站: https://www.elastic.co/cn/ 官网对Elasticsearch 介绍的第一句话: Elastic...

2856
来自专栏杨建荣的学习笔记

初识Neo4j

睡觉前,突然想起来Neo4j这个数据库,以前认为是一个相当神秘的数据库,一听是图数据库,以为是存储图片的。一想不对啊,存储图片不是数据库层面建议的,所以自己理了...

3647
来自专栏张戈的专栏

替代crontab,统一定时任务管理系统cronsun简介

摘 要 cronsun 是一个分布式任务系统,单个节点和 Linux 机器上的 crontab 近似。是为了解决多台 Linux  机器上 crontab 任...

52713
来自专栏tiane12

Linux/CentOS定期清空指定目录脚本

1184
来自专栏我的安全视界观

【安全测试】Android APP安全测试之敏感信息本地存储

1795
来自专栏Golang语言社区

使用Golang开发websocket的记录

使用beego框架进行整个社区的restful api的开发,查找资料后决定使用github.com/gorilla/websocket 作为websocke...

4096

扫描关注云+社区