首页
学习
活动
专区
工具
TVP
发布

keinYe

专栏作者
53
文章
67402
阅读量
16
订阅数
快速生成一个 Python 列表
列表生成式是 Python 内置的强大的列表创建工具,可以用来快速的创建一个具有一定规则的列表。
keinYe
2020-04-26
1.2K0
Python 反射
以上是维基百科中对反射的解释。我的理解反射是在运行过程中,获取和修改未知对象的属性和方法的一种解决方案。
keinYe
2020-04-09
7050
Python 基础
Python 采用缩进的方式来标识代码,虽然没有明确规定缩进使用几个空格还是 Tab,但是约定的习惯使用 4 个空格的缩进。
keinYe
2020-04-08
1.6K0
Python 库 xlwings 操作 Excel 文档
每个扩展库的功能都有其侧重点,根据所需要的功能,选择所需的扩展库即可。这里主要介绍通过 xlwings 对 Excel 文件进行操作。
keinYe
2020-03-18
3.3K1
Python 编程必不可少的测试框架「pytest篇」
pytest 是基于 unittest 实现的第三方测试框架,比 unittest 更加的简洁、高效,并且可以完美兼容 unittest 的测试代码,无需对其做任何的修改。
keinYe
2020-02-25
8490
Python 编程必不可少的测试框架「unittest 篇」
unittest 是一个单元测试框架,单元测试完成对一个模块、一个类或一个函数的运行结果进行检验的测试工作。单元测试是对一个程序最基础的组成部分进行正确性验证,只有所有的单元测试不存在问题才能保证整体程序的正确性。
keinYe
2020-01-02
6330
使用 uWSGI + Nginx 部署 Flask 应用
在这篇文章之前,所有的应用都是在命令行使用 Python 直接运行的,但是这种方式只适合在开发过程中使用,并不适合在生产环境中使用,在生产环境中可以使用 uWSGI + Nginx 来部署程序。
keinYe
2019-12-19
3.4K0
Python 数据库迁移工具 Alembic
Alembic 是一款轻量型的数据库迁移工具,它与 SQLAlchemy 一起共同为 Python 提供数据库管理与迁移支持。
keinYe
2019-11-10
3.2K0
Python 命令行神器 Click
实际上 Python 标准库提供了一个默认的命令行工具 Argparse,但是对于 Click 来说 Argparse 使用起来非常的繁琐和麻烦,大多数人都很少使用它。Argparse 对比与 Click 就像网页解析中使用的 re 和 BeautifulSoup。
keinYe
2019-10-30
7490
为 Flask 应用添加用户登录
Flask 是什么?我想打开这篇文章的你应该不陌生,但是我还引用维基百科上的内容做个简短的介绍。
keinYe
2019-09-10
1.6K0
外行学 Python 爬虫 第五篇 数据存储
前面一至四篇我们学习了如何使用 python 来获取网页并将网页中的有效数据解析出来,当获取到有效数据以后,不可能将数据放在内存中,一旦系统出现问题辛辛苦苦获取的数据都付诸东流了,此时需要考虑数据持久化的事情,数据持久化我们有两种选择一是将数据保存在文件中「比如 txt 文件或 execl 文件」,另一种是将数据保存在数据库中。
keinYe
2019-08-01
8430
外行学 Python 爬虫 第四篇 URL 去重
当你可以从网站上获取网页,也可以将网页中有效的信息提取出来以后,接下来你会做什么?我想它一定是一个肯定的答案『获取整个网站的内容』,毕竟只获取网站上一个网页的内容听起来和看起来都不是那么的高大上,只有将整个网站的内容提取出来它才能称得上爬虫这个有科技感和高大上的名字。
keinYe
2019-08-01
8200
外行学 Python 爬虫 第二篇 获取内容
一个无法获取内容的爬虫不是一个真正的爬虫,爬虫的首要目标是从网络上获取内容。目前我们所看到的网页都是通过超文本传输协议「英语:HyperText Transfer Protocol,缩写:HTTP」在服务器和客户端之间进行数据交换。
keinYe
2019-08-01
3490
外行学 Python 爬虫 第一篇 介绍
为什么标题叫做“外行学 Python 爬虫”?是因为本人非 IT 互联网从业人员,唯一能说得上关系的是本人是一个 C 的开发人员,从事的是与嵌入式相关的工作,即与互联网无关,也与数据分析无关。那么为什么要学 Python 爬虫呢?原因一、多一门技能增加自己的职业竞争力。原因二、提升自己的生存「赚钱」能力。
keinYe
2019-08-01
3850
Python 爬虫第三篇(循环爬取多个网页)
本篇是 python 爬虫的第三篇,在前面两篇 Python 爬虫第一篇(urllib+regex) 和 Python 爬虫第二篇(urllib+BeautifulSoup) 中介绍了如何获取给定网址的网页信息,并解析其中的内容。本篇将更进一步,根据给定网址获取并解析给定网址及其相关联网址中的内容。要实现这些功能,我们需要解决以下问题:
keinYe
2019-08-01
7.3K1
外行学 Python 爬虫 第七篇 开启多线程加快爬取速度
经过上一篇文章外行学 Python 爬虫 第六篇 动态翻页我们实现了网页的动态的分页,此时我们可以爬取立创商城所有的原件信息了,经过几十个小时的不懈努力,一共获取了 16万+ 条数据,但是软件的效率实在是有点低了,看了下获取 10 万条数据的时间超过了 56 个小时,平均每分钟才获取 30 条数据。
keinYe
2019-08-01
1.1K0
Python 爬虫第二篇(urllib+BeautifulSoup)
在前面一篇「Python 爬虫第一篇(urllib+regex)」 我们使用正则表达式来实现了网页输入的提取,但是网页内容的提取使用正则是比较麻烦的,今天介绍一种更简便的方法,那就是使用 BeautifulSoup 网页解析库来实现同样的功能。BeautifulSoup 的安装和用法可以参考「Python 爬虫之网页解析库 BeautifulSoup」这篇文章。
keinYe
2019-08-01
5180
Python 爬虫第一篇(urllib+regex)
爬虫的主要用途即从网站上获取网页,并将网页中的有用信息解析出来。从网站上获取网页内容可以通过 python 内置的 urllib 模块来实现,至于信息的解析说起来比较复杂,python 中可以使用的模块也有很多,今天我们主要使用正则表达式「python 内置的 re 模块」来实现数据的解析。
keinYe
2019-08-01
6710
Python 正则表达式
在开始之前我们先要明白两个问题。 1、什么是正则表达式? 2、为什么要学习正则表达式? 人类在做一件事之前,总是会先问一下为什么要这么做『你可能说你没有这么想过,我想说的是其实你下意识已经考虑过了』。其实问为什么的时候,既是给我们做这件事的原因,也是我们遇到困难时坚持下去的动力。
keinYe
2019-08-01
6730
Python 数据库操作 SQLAlchemy
在运行过程中所有的的数据都存储在内存 (RAM) 中,「RAM 是易失性存储器,系统掉电后 RAM 中的所有数据将全部丢失」。在大多数情况下我们希望程序运行中产生的数据能够长久的保存,此时我们就需要将数据保存到磁盘上,无论是保存到本地磁盘,还是通过网络保存到服务器上,最终都会将数据写入磁盘文件。将数据保存在磁盘中我们需要面对一个数据格式的问题,此时就需要引入数据库操作。
keinYe
2019-08-01
1.5K0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档