展开

关键词

大话(一)

导读:的准备至关重要,无论是手工还是自动化都要以良好的准备为基础。 在过程中,我们往往在计划阶段就忽略了,在起先没有给的设计、准备留出足够的时间,投入足够的精力,到了执行阶段追悔莫及。 为什么重要?1. 最浅显的道理:说白了用例的执行工作主要是做一些输入操作,然后观察输出。就是输入的内容,没有,你咋执行用例?2. 设计的重要组成部分,用例的有效性严重依赖的选取或者设计,要记住的本质是抽样,样品的选取其实是一门深奥的科学,有学过统计学的同学会深切明白这个道理。3. 其它种种好处 ...的分类我们可以从多个维度对进行分类,下面讲一下我的分类方式:1. 从的生命周期角度看可以将分为:稳定和、可消耗的和混合类型

22910

Redis增加

Key0 Value0SET Key1 Value1...SET KeyN ValueN执行如下命令,将内容管道给redis客户端cat data.txt | redis-cli --pipe三.制造 binbashfor ((i=0;i>redis.logdone查看key量dbsize

15830
  • 广告
    关闭

    最壕十一月,敢写就有奖

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    magento 2.3安装

    前面我们一步步composer安装Magento2.3,但是没有的话各项设置不是很熟悉,所以最好还是安装一下。下面我们就跟ytkah一起填充。 假设magento 2.3安装目录是wwwmagento,进入目录cd wwwmagento  下载git clone https:github.commagentomagento2-sample-data.git 输入如下命令创建symbolic链接让起作用php -f magento2-sample-datadevtoolsbuild-sample-data.php -- --ce-source=wwwmagento

    98710

    如何清除

    Ecshop的后台是很强大的,我们只需要把ecshop的所有商品删除就可以了。 请看详细教程:1、删除ecshop商品在登入后台,找到商品列表,勾选所有的产品,选择“回收站”,再点击确定就可以了。 (注意有页面一般都是有两页) 使用同种方法可以完全删除商品列表,商品分类,用户评论,商品类型,标签管理,虚拟商品列表下的所有。 3、删除ecshop文章(含文章分类,列表)将所有文章分类,文章列表,文章自动发布,在线调查下的东西全部删除就可以了。 最后,清除一下缓存。

    49670

    LeetCode的爬虫

    LeetCode的(包括付费)题目到处都有,可是怎么找呢?我设想了一种方法,来获得每道题的。 此外,LeetCode评的机制是:新建一个Solution对象,然后多次调用要的函,依次传入每个。与其他OJ每次都创建一个新的进程相比,这让我们有了更多的发挥空间。 这是因为只有前面的答案正确,才能看到后面的。修改上面说的代码,让它记录每次调用主函时传进的参,并且恰好在最后一个时给出错误答案,而且把记录的内容输出到Stdout。 在代码前面插入一些全局变量:现在是第几个、所有组、分段输出时控制想要哪一段的这个常量。从这道题目的默认代码(只给出函签名的那种),确认要在记录哪些函接收到的。 在1~20题上,已经能扒下18道题的。剩下两道因为输入是链表,不能直接变成json。估计的解决方法是允许为某些特殊的题传入一个专门的记录函

    1.6K81

    的整理(1)

    但事与愿违,没有支撑,所有操作都变得像在迷雾中前行,既不知道前进方向,也不知道前面是否有大坑等着。所以,还是尝着用一些实际,来衡量所选择的策略,至少能够提供量化的对比作为参考。 关键是——太新的话,其实是不准的,这个在后面的用中可以看到。 简单说,包括了32万个标的,320万条还款。由于是真实的样本,具有很高的参考价值。?还款计划表但是,官方也存在问题,主要有:        1、标的特征表字段不全。 针对这个问题,费了很大功夫,对进行了处理,补齐了所有字段,得到了一个投标样本库,包含了32万条真实标的,以及这些标的到2017-2-22时的还款情况。 在此,不得不称赞一下sqlite,处理这么大的,非常轻松。?对真实计算逾期率,非常有趣。另外,也能发现逾期率与借款时间有很强的相关性。

    25180

    《Jmeter工具使用》《接口库压力,批量产生

    12020

    ——有效范围(2)

    库搞好,学习了一下逾期率的官方定义:• 对于某支标,如果某一期没有正常还款,则悲观逾期率=所有未还本金借款本金;• 对于一批标,悲观逾期率=当前逾期标的所有未还本金借款本金;• 以30天逾期率为例 库里统计日期是17.2.22,有5万多个标是1.22之后的,也就是说,还未到首次还款时间,剔除之。 然后计算了一下,库中27万笔的逾期率:select sum(wh)sum(amount) from l3结果,很受伤,高达33%:?把分开,按月统计标的量和逾期率,结果:? 尽管后面的肯定有用,但我的目的只是要一个相对可参考的逾期率,所以,我把样本选在了1年前的,即2015年3月以前的

    24770

    Jpopulator生成工具

    一、介绍这个小工具帮助我们生成,省的我们时造

    47010

    “时间穿梭”

    问题假设我们有一组,我们需要按照中的用户年龄属性对这批进行分组(用户还可能包含很多其它属性),针对不同的组别,代码有不同的处理逻辑。 那么问题来了:因为是死的,如果用户A当前进入了分支1,那么在不变的情况下, 服务端时间变更,用户A可能在下一秒就进入了分支B,那么这样的结果我们是无法进行断言的,也就是结果不可控。 一般来说,有两种解决方案: ①编写修改环境的脚本,保证环境时间固定。 ②将自动调整到我们想要的时间,针对上面的问题,就是时间能够随着环境的时间同步变动。 最终实现让与服务器时间保持同步。 这样简单的改造,就完成了我们“一气呵成”构造时间相关的需求。

    29820

    极速导入elasticsearch

    在练习elasticsearch的搜索操作时,需要准备用于练习,于是要花费时间来造,本文提供了一条命令用于快速创建索引并导入的每一个文档是莎士比亚作品中的一句对白(这是网上的经典集 可用于常用的搜索命令练习;环境本次实战的环境信息如下:操作系统:Ubuntu 18.04.2 LTSJDK:1.8.0_191elasticsearch:6.1.2执行命令复制以下命令在命令行执行,请注意命令的最后两个参, 192.168.50.75是elasticsearch服务的IP地址,9200是elasticsearch服务的端口号,请根您的实际环境进行替换:wget https:raw.githubusercontent.comzq2599blog_demosmasterfilescreate_shakespeare_index.sh 至此,导入成功,可以专心的做查询练习了。

    1.3K20

    MySQL的构造

    www.zhaibibei.cn这是一个坚持Oracle,Python,MySQL原创内容的公众号前面说了MySQL Linux平台和Windows平台的安装下面开始是MySQL的一些学习笔记首先学习其中的一些命令和特性我们需要有今天的内容即为如何构造一些环境为 先定义一个随机字符串的函我们首先新建一个test库 并指定他create database test; use test 之后执行如下命令,新建rand_string函DROP FUNCTION 新建存储过程接下来新建2个存储过程分别用于新建innodb和MyISAM表并插入2.1 新建MyISAM表delimiter DROP PROCEDURE IF EXISTS mock_isamCREATE THEN LEAVE loopHandler; END IF; END LOOP loopHandler; COMMIT;ENDdelimiter ;SELECT NOW(); 2.1 新建Innodb表 参考资料http:www.kkh86.comitmysql-advguide-index-mock-data.html可点击阅读原文获得更好的阅读体验,推荐在PC端阅读 也可在公众号内回复 MySQL的构造

    20220

    Python接口管理

    甚至有时接口之间的还会相互干扰, 导致接口断言失败时不能断定到底是接口程序引起的错误,还是变化引起的错误,那么该如何有效解决这个问题呢? 解决思路通过库,每轮之前将初始化,这样避免干扰。Django库管理在之前我们的接口项目django_resutful使用的库是Python自带的SQLite3。 f=open(datas.yaml,r) datas=yaml.load(f) db.init_data(datas) 封装初始化我们将初始化使用Yaml来封装,可以将与代码分离,方便的维护 _: db=DB() f = open(datas.yaml, r) datas = yaml.load(f) db.init_data(datas) unittest.main() 这样每次迭代回归就不用担心环境相互干扰的问题了 ,这样会有效提高自动化执行效率。

    5510

    Python分析实践

    近期因需要分析点,又重新拾起来,并快速解决问题。特总结一下,作为工具类语言,Python 还是非常不错的,推荐使用。1. 背景说明近期在分析一些脚本产生的。 这些脚本会执行大量SQL样本,并将结果输出到日志中。如失败,会打出错误的信息,供事后分析使用。但要从日志中分析出错误,并不容易。 步骤:结构化要解决这一问题,首先想到的就是解决结构化的问题。毕竟分散到日志文件中的,处理起来不太方便。如果能将结构化,存放到关系结构中,后续就很容易处理了。 步骤:收敛虽然我们得到的结构化,但分析起来仍不太容易。这主要是因为是零散的。 步骤:结果输出将规格化、两次分类后,可以将结果输出,方便后续查询。这里可以将其录入到库中,也可以简单写成一个XLS文件。EXCEL文件,其实一种关系的体现。

    15920

    InfluxDB - 官方导入

    点击查看:Nginx+Grafana+Prometheus+Jmeter搭建可视化监控平台 (包括InfluxDB) 继续之前的文章,已经搭建好了平台,接下来的工作就是往InfluxDB库里面填充 influxDB,所以需要进入到docker容器中,如下: docker exec -it containerID binbash新建一个文件data_demomkdir data_demo下载官网实例的到本地 可见,执行完命令之后,在当前目录可以看到下载成功的NOAA_data.txt。通过cat命令还可以看到文件中的内容。 如下图,可见通过上面的导入命令,已在influxdb中创建了一个名为NOAA_water_database的库,并且在库中新建了几个表并插入了。 ?查询: ? 至此,官网导入完成。

    37010

    不会造?Fake Data!

    Python & Faker不会造?在过程中,大家应该都遇到过各种各样的构造问题。e.g. 构造一批通讯录、构造一批用户三要素(姓名手机号身份证)、构造一批银行卡……这时候,大多可能是这样的:张三, 130 0000 0001李四, 130 0000 0002王五, 130 0000 这样的,不仅要自己手动敲,还假的不能再假,浪费时间、浪费人力、价值低……后来想了个办法,同步线上,但是还要加密解密,也要挨个库表去找自己想要的。 扩展FakerPART 03如果这些还不够生成使用,Faker还支持创建自定义的Provider生成。 当然,缺点也就显而易见,它不是那么的智能,生成的是随机生成,量也不是那么大。

    38540

    Mysql脚本 生成

    binbash#混合库脚本#将创建一个single库,其中创建一个s1表#如果库存在,将会写入,可以在写入部分sleep 1 来让持续写入#使用方法 .xx.sh -uroot $* -e use single;create table s1(id int AUTO_INCREMENT PRIMARY KEY,name char(20),age int);fi#name随机random_name p a s d f g h j k l z x c v b n m) for i in `seq 1 5` do local a=`echo $` echo -n ${zu} done}#age随机random_age

    8020

    ——猜想大验证(3)

    ,不妨一下,非常有趣:1.各个信用等级的逾期率?其他的都比较符合预期,但A的偏高,我也很纳闷,把调出来,从高到低排是这样的:?借的量巨大,一旦逾期,在整个逾期率的计算中必然拖累整体。 加上A标总比较少,这个效应就更加明显了。看来没啥毛病。将来对选择标的进行模拟时,如果加上金额限制,同样没啥问题。如限制借款上限为6000,则逾期率就降低很多:?2.性别,女人比男人靠谱? 是不是借期短就意味着借的时候对还款就心中有呢??4.年龄20+:?30+:?40+:?50+:?5:各种认证征信:?学历:?实在太多,懒得贴了。

    656100

    训练和的观察

    训练和集的分布在开始竞赛之前,我们要检查集的分布与训练集的分布,如果可能的话,看看它们之间有多么不同。这对模型的进一步处理有很大帮助. (来自两者的4459个样本,即整个训练集和集的样本),并对组合执行t-SNE。 看起来很有趣,训练比在中更加分散,似乎更紧密地聚集在中心周围。 我将从scipy使用函来运行 。 对于分布高度可区分的所有特征,我们可以从忽略这些列中受益,以避免过度拟合训练集和训练集合分布相似了。原文链接:https:www.jianshu.comp464faf4953c4

    50940

    hybris的存放位置

    版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 ...

    18430

    扫码关注云+社区

    领取腾讯云代金券