python接口自动化16-multipart/form-data上传多个附件

前言

reuqests上传一张图片到服务器,前面已经介绍过了,那么如何在提交BUG的时候,上传附件呢?

上传附件的时候,文件的name参数名称是一样的,python里面key是不可以重复的,又如何处理参数名称相同的情况?

一、上传附件

1.以禅道提交BUG的时候上传附件为例

2.fiddler抓包看请求参数,查看到文件上传的参数如下

二、上传一个附件

1.之前学了一篇ultipart/form-data文件上传,然后学了一篇ultipart/form-data表单提交,这里文件上传,就是把两篇的知识点加起来

2.把参数分开,表单的数据用data提交,文件附件用files提交

```

# -----------------------前面先登录步骤省略了-------------

# 提交bug, 带上附件

url1 = host+"/zentao/bug-create-1-0-moduleID=0.html"

d= {

"product": "1",

"module": "0",

"project": "",

"openedBuild[]": "trunk",

"assignedTo": "admin",

"type": "codeerror",

"os": "all",

"browser": "all",

"color": "",

"title": "yoyoketang-这是一个带附件的1",

"severity": "3",

"pri": "0",

"steps": '

[步骤]

\

1、第一步点

\

2、第二步点

\

3、点三步点

\

[结果]

\

\

[期望]

',

"story": "0",

"task": "0",

"mailto[]": "",

"keywords": "",

# "files[]": ("1.png", open("d:\\1.png", "rb"), "image/png"),

# "labels[]": "tu1",

"uid": "5a2955c884f98",

"case": "0",

"caseVersion": "0",

"result": "0",

"testtask": "0"

}

file = {

"files[]": ("1.png", open("d:\\1.png", "rb"), "image/png"),

"labels[]": "tu1",

}

r = s.post(url1, data=d, files=file) # 分开传

print r.content

```

三、传多个附件

1.传多个文件的时候如下,这两个参数的name都是一样的,如果用字典去传key值,很显然python的key值是不能重复的

Content-Disposition: form-data; name="files[]"; filename="1.png"

Content-Type: image/png

Content-Disposition: form-data; name="files[]"; filename="2.png"

Content-Type: image/png

2.这时候需要换个格式,传list数据

```

# file = {

# "files[]": ("1.png", open("d:\\1.png", "rb"), "image/png"),

# "labels[]": "tu1",

# }

#-------------多个文件用list类型------------

file = [

("files[]", ("2.png", open("d:\\1.png", "rb"), "image/png")),

("labels[]", "tu1"),

("files[]", ("2.png", open("d:\\2.png", "rb"), "image/png")),

("labels[]", "tu2"),

]

```

3.上传之后,查看禅道上是可以提交成功的

四、参考代码

```

# coding:utf-8

import requests

base = 'http://127.0.0.1:81' # 禅道的服务器地址

loginUrl = base+"/zentao/user-login.html"

h = {

"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:44.0) Gecko/20100101 Firefox/44.0",

"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",

"Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",

"Accept-Encoding": "gzip, deflate",

"Referer": base+"/zentao/user-login.html",

# "Cookie": # 头部没登录前不用传cookie,因为这里cookie就是保持登录的

"Connection": "keep-alive",

"Content-Type": "application/x-www-form-urlencoded",

}

body = {"account":"admin",

"password":"e10adc3949ba59abbe56e057f20f883e",

"keepLogin[]":"on",

"referer":base+"/zentao/my/"

}

s = requests.session() # 保持会话

r = s.post(loginUrl, data=body, headers=h)

print r.content # 打印结果看到location='http://127.0.0.1/zentao/my/'说明登录成功了

# 提交bug, 带上附件

url1 = base+"/zentao/bug-create-1-0-moduleID=0.html"

f = {

"product": "1",

"module": "0",

"project": "",

"openedBuild[]": "trunk",

"assignedTo": "admin",

"type": "codeerror",

"os": "all",

"browser": "all",

"color": "",

"title": "yoyoketang-这是一个带附件的1和2",

"severity": "3",

"pri": "0",

"steps": '

[步骤]

\

1、第一步点

\

2、第二步点

\

3、点三步点

\

[结果]

\

\

[期望]

',

"story": "0",

"task": "0",

"mailto[]": "",

"keywords": "",

# "files[]": ("1.png", open("d:\\1.png", "rb"), "image/png"),

# "labels[]": "tu1",

"uid": "5a2955c884f98",

"case": "0",

"caseVersion": "0",

"result": "0",

"testtask": "0"

}

# file = {

# "files[]": ("1.png", open("d:\\1.png", "rb"), "image/png"),

# "labels[]": "tu1",

# }

#-------------多个文件用list类型------------

file = [

("files[]", ("2.png", open("d:\\1.png", "rb"), "image/png")),

("labels[]", "tu1"),

("files[]", ("2.png", open("d:\\2.png", "rb"), "image/png")),

("labels[]", "tu2"),

]

r = s.post(url1, data=f, files=file)

print r.content

```

本文来自企鹅号 - 从零开始学自动化测试媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏腾讯移动品质中心TMQ的专栏

如何轻松爬取网页数据?

在实际工作中,难免会遇到从网页爬取数据信息的需求,如:从微软官网上爬取最新发布的系统版本。很明显这是个网页爬虫的工作。本文将根据网站特性进行分类介绍几种使用py...

5K20
来自专栏唐郑望的专栏

Django数据处理的一些实践

提到 Django 肯定避不开 MVC 模式,即模型(Model)-视图(View)-控制器(Controller),通过将业务逻辑、数据、界面显示分离的方法组...

38110
来自专栏钟志远的专栏

【腾讯云的1001种玩法】云服务器搭建Python爬虫环境

在上一篇文章中,我们已经学会了在云服务器上搭建Python环境了,假设你已经在云服务器上搭建好了Python环境,我们将进入下一步:搭建Python爬虫环境。

4K30
来自专栏崔庆才的专栏

腾讯云主机Python3环境安装Scrapy爬虫框架过程及常见错误

Scrapy安装介绍Scrapy的安装有多种方式,它支持Python2.7版本及以上或Python3.3版本及以上。下面说明Python3环境下的安装过程。Sc...

2.6K10
来自专栏社区的朋友们

深度学习入门实战(一):像Prisma一样算法生成梵高风格画像

现在人工智能是个大热点,而人工智能离不开机器学习,机器学习中深度学习又是比较热门的方向,本系列文章就从实战出发,介绍下如何使用MXnet进行深度学习~

10.4K30
来自专栏社区的朋友们

深度学习入门实战(二):用TensorFlow训练线性回归

上一篇文章我们介绍了 MxNet 的安装,但 MxNet 有个缺点,那就是文档不太全,用起来可能是要看源代码才能理解某个方法的含义,所以今天我们就介绍一下 Te...

6.4K10
来自专栏胖胖的专栏

实战干货:从零快速搭建自己的爬虫系统

本文简要归纳了网页爬虫的基础知识,着重于利用现有组件,快速建立一套实际可用的网页爬取、分析系统。系统主要使用Python 作为开发语言,在 Linux 或 Ma...

4.5K40
来自专栏张宁的专栏

反爬虫和抗DDOS攻击技术实践

企鹅媒体平台媒体名片页反爬虫技术实践,分布式网页爬虫技术、利用人工智能进行人机识别、图像识别码、频率访问控制、利用无头浏览器PhantomJS、Selenium...

2K10
来自专栏张戈的专栏

Python 远程控制模块 paramiko 问题解决记录

生产环境中使用paramiko作SSH远程控制时,发现会有部分机器报Error reading SSH protocol banner错误,尝试使用ssh命令连...

6.7K20
来自专栏钟志远的专栏

【腾讯云的1001种玩法】云服务器搭建Python环境

之前一直在用阿里云服务器跑爬虫、小脚本。这两天在朋友的安利下转到了腾讯云上面来,刚好趁这个机会写一写有关于云服务器上Python爬虫环境的搭建。

7.1K60

扫码关注云+社区

领取腾讯云代金券

年度创作总结 领取年终奖励