首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

初始python单元测试框架unittest与webdriver的关系(一)

unittest是属于python的单元测试框架,和java的junit,c#的nunit雷同,unittest的详细说明,具体见官方的地址:https://docs.python.org/2/library/unittest.html。unittest单元测试给我们提供了创建测试用例,测试套件,以及测试固件。unittest在安装pyhton以后,直接自带了,可以直接使用。作为单元测试,是对程序最小模块的一种敏捷化的测试,更多的是开发作为对自己代码质量的一种考核,测试驱动的方法中,测试先行,开发接着来。在自动化测试中,我们虽然没有按照这样的模式来,但是有一个基本的事实的,当我们把selenium2的API全部学习完后,但是作为自动化测试来说,我们不可能把N个测试点,写在一个python的文件里面,即使一个简单的文本输入框,我们要测试它的边界值,敏感字符等,如果写在一个文件中,执行失败后,我们得仔细的查看到底是边界值出问题了还是其他出问题了,导致该部分执行失败,显然,这样的自动化,不是我们想要的,也会给成本增加很多的,也无法达到自动化的要求,更加无法处理几百几千个测试用例的批量执行。那么,就让我们来了解神秘的unittest,unittest的关系图具体见如下截图的层级关系:

03

Appium+python自动化(二十六)- 烟花一瞬,昙花一现 -Toast提示(超详解)

今天宏哥在这里首先给小伙伴们和童鞋们分享一个有关昙花的小典故:话说昙花原是一位花神,她每天都开花,四季都灿烂。她还爱上了每天给她浇水除草的年轻人。后来,此事给玉帝得知。于是,玉帝大发雷霆,要拆散鸳鸯。他将花神抓了起来,把她贬为每年只能开一瞬间的昙花,不让她再和情郎相见,还把那年轻人送去灵鹫山出家,赐名韦陀,让他忘记前尘,忘记花神。   多年过去了,韦陀果真忘了花神,潜心习佛,渐有所成。而花神却怎么也忘不了那个曾经照顾她的小伙子。她知道每年暮春时分,韦陀总要下山来为佛祖采集朝露煎茶。所以,昙花就选择在那个时候开放。她把集聚了整整一年的精气绽放在那一瞬间,希望韦陀能回头看她一眼,能记起她。可是,千百年间过去了,韦陀一年年的下山来采集朝露,昙花一年年的默默绽放,韦陀始终没有记起她。直到有一天,一名枯瘦的男子从昙花身边走过,看到花神忧郁孤苦之情,便停下脚步问花神:“你为什么哀伤?”。花神惊异,因为凡人是看不到花神的真身。如果是大罗金仙头上有金光、如果是妖魔头上有黑气、如果而凡人头上是无任何灵光。刚刚从身边走过的明明是一个凡人,如何看得见自己的真身。花神犹豫片刻,只是答到:“你帮不了我”。又默默等待韦陀,不再回答那个男子的话。40年后,那个枯瘦男子又从昙花身边走过,重复问了40年前的那句话:“你为什么哀伤?”花神再次犹豫片刻,只是答道“你也许帮不了我”。枯瘦的男子笑了笑离开。再40年后,一个枯瘦的老人再次出现在花神那里,原本枯瘦的老人看起来更是奄奄一息。当年的男子已经变成老人,但是他依旧问了和80年前一样的话:“你为什么哀伤?”。昙花答道:“谢谢你这个凡人,在你一生问过我3次,但是你毕竟是凡人,而且已经奄奄一息,还怎么帮我,我是因爱而被天罚的花神”。老人笑了笑,说“我是聿明氏,我只是来了断80年前没有结果的那段缘分。花神,我只送你一句‘缘起缘灭缘终尽、花开花落花归尘’”。说完老人闭目坐下。时间渐渐过去,夕阳的最后一缕光线开始从老人的头发向眼睛划去。老人笑道:“昙花一现为韦陀,这般情缘何有错,天罚地诛我来受,苍天无眼我来开”。说罢,老人一把抓住花神。此时的夕阳正好滑到了老人的眼睛,老人随即圆寂,抓着花神一同去往佛国去。花神在佛国见到了韦陀,韦陀也终于想起来前世因缘。佛祖知道后准韦陀下凡了断未了的因缘。   昙花一现,只为韦陀。所以,昙花又名韦陀花。也因为昙花是在夕阳后见到韦陀,所以昙花都是夜间开放。   好了,到此故事结束了,开始今天的主题 - 获取toast提示 在日常使用App过程中,经常会看到App界面有一些弹窗提示(如下图所示)这些提示元素出现后等待3秒左右就会自动消失,这个和我日常生活中看到的烟花和昙花是多么的相似,那么我们该如何获取这些元素文字内容呢?

04

(数据科学学习手札50)基于Python的网络数据采集-selenium篇(上)

接着几个月之前的(数据科学学习手札31)基于Python的网络数据采集(初级篇),在那篇文章中,我们介绍了关于网络爬虫的基础知识(基本的请求库,基本的解析库,CSS,正则表达式等),在那篇文章中我们只介绍了如何利用urllib、requests这样的请求库来将我们的程序模拟成一个请求网络服务的一端,来直接取得设置好的url地址中朴素的网页内容,再利用BeautifulSoup或pyspider这样的解析库来对获取的网页内容进行解析,在初级篇中我们也只了解到如何爬取静态网页,那是网络爬虫中最简单的部分,事实上,现在但凡有价值的网站都或多或少存在着自己的一套反爬机制,例如利用JS脚本来控制网页中部分内容的请求和显示,使得最原始的直接修改静态目标页面url地址来更改页面的方式失效,这一部分,我在(数据科学学习手札47)基于Python的网络数据采集实战(2)中爬取马蜂窝景点页面下蜂蜂点评区域用户评论内容的时候,也详细介绍过,但之前我在所有爬虫相关的文章中介绍的内容,都离不开这样的一个过程:

05
领券