首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

21.8 Python 使用BeautifulSoup

BeautifulSoup用于从HTML或XML文件中提取数据。它可以自动将复杂的HTML文档转换为树形结构,并提供简单的方法来搜索文档中的节点,使得我们可以轻松地遍历和修改HTML文档的内容。...读者如果需要使用这个,同样需要执行pip命令用以安装:安装PIP包:pip install bs4 -i https://pypi.tuna.tsinghua.edu.cn/simple21.8.1...图片接着我们继续使用该函数实现定位文章列表功能,文章列表的定位同理,此处第二个参数应修改为href属性,如下代码分别使用两种方式实现对文章列表的定位功能;if __name__ == "__main__...默认为 Truetext:字符串或正则表达式,用于匹配元素的文本内容limit:整数,限制返回的匹配元素的数量kwargs:可变参数,用于查找指定属性名和属性值的元素我们以输出CVE漏洞列表为例,通过使用...运行后即可获取选中元素的字符串内容,并通过list将其转换为列表格式,如下图所示;图片通过find_all以及stripped_strings属性我们实现一个简单的抓取天气的代码,以让读者可以更好的理解该属性是如何被使用

17920

Python || Random使用

在C语言我们可以用rand和srand函数来生成随机数,且这些函数需要用到的为。 那么在Python我们需要用到的是什么呢?使用起来会比C语言更难么?...Random简介 random使用随机数的python标准,所谓标准,即可以直接使用的,无需使用pip下载。...(安装python,打开cmd,输入:pip install 名) 使用/调用random:import random random() 方法返回随机生成的一个实数,它在[0,1)范围内。...To:首先,python中的随机数通过使用随机数种子产生计算机产生随机数需要随机数种子的,也就是说随机数的产生是有规律的,那么抽奖也是可以用这种规律的,即很有可能你就是那个幸运儿~ 而随机数种子确定了随机序列的产生...(Python系列)未完待续...

95010

python uuid使用

python 的uuid是用来生成一串唯一表示的包,uuid是一个 32 位的16进制数,用来设置唯一的辨识信息,具体uuid功能查看维基百科 uuid使用方法(uuid使用文档翻译): uuid...帮助模块: uuid - UUID 对象(全局唯一标识符)根据 RFC 4122 文件:     /usr/lib/python2.7/uuid.py 模块文档:     http://docs.python.org...基于主机ID和当前的时间         >>>uuid.uuid1()         UUID('a8098c1a-f86e-11da-bd1a-00112444be1e')         #使用...MD5加密的名称空间和一个名称创建一个UUID         >>>uuid.uuid3(uuid.NAMESPACE_DNS, 'python.org')         UUID('6fa459ea-ee8a...#创建一个随机的UUID         >>>uuid.uuid4()         UUID('16fd2706-8baf-433b-82eb-8c7fada847da')         #使用

3.6K30

python新手学习使用

本文主要介绍下如何使用第三方。 1. 理解第三方 Python相当于一个手机,第三方相当于手机里各种各样的APP。...那么,如何根据自己的需求找到相应的呢? 可以在 https://awesome-python.com 这个网站上按照分类去查找需要的。 2....1)打开PyCharm——顶部菜单File——选择Default Settings; 2)搜索project interpreter,选择当前Python环境,然后底部点击“+”号添加; 3)搜索数据名称...使用第三方 使用第三方时,只要在在PyCharm中输入库之后就可以使用了。输入库用import,比如输入requests为:import requests。...新手学习使用的文章就介绍到这了,更多相关python如何使用库内容请搜索ZaLou.Cn以前的文章或继续浏览下面的相关文章希望大家以后多多支持ZaLou.Cn!

63620

21.7 Python 使用Request

Request可以用来发送各种HTTP请求,该框架的特点是简单易用,同时支持同步和异步请求,支持HTTP协议的各种方法和重定向。它还支持Cookie、HTTPS和认证等特性。...Request使用非常广泛,可以用于网络爬虫、API调用、网站测试等场景。...读者如果需要使用这个,同样需要执行pip命令用以安装: 安装PIP包:pip install requests -i https://pypi.tuna.tsinghua.edu.cn/simple...参数json是一个Python对象,表示要发送的JSON数据。其他的关键字参数将作为请求头的一部分发送。...在requests中同样支持增加代理功能,代理的写法有两种分别是有密码与无密码,这两种格式可写为: 有密码写法:"https": "https://username:password@ip:port"

17920

21.9 Python 使用Selenium

Selenium支持多种编程语言,如Java、Python、C#等,同时也支持多种浏览器,如Chrome、Firefox、Safari等。...该工具在使用时需要安装两个模块,首先读者需要自行安装selenium包,并且需下载与对应浏览器匹配的驱动程序。...此处本人的版本为112.0.5615.121(32 位)根据该版本下载对应的驱动程序,并将驱动程序放入到Google浏览器根目录下,如下图所示,此时的驱动就已经安装成功了;图片21.9.1 模拟打开页面当需要使用浏览器模拟时...我们通过使用all_handles[-1]的方式切换到最后一个窗体上,也就是对应的百度贴吧页面,接着再执行switch_to.window(new_handle_tieba)函数实现窗口句柄的切换功能,...driver.close() input("输入回车结束") driver.quit()运行后读者可自行观察输出效果,如下图所示;图片21.9.4 自动页面采集如下是一个综合案例,在案例中我们通过使用三种解析实现了对百度页面中特定关键字的采集

22230

21.7 Python 使用Request

Request可以用来发送各种HTTP请求,该框架的特点是简单易用,同时支持同步和异步请求,支持HTTP协议的各种方法和重定向。它还支持Cookie、HTTPS和认证等特性。...Request使用非常广泛,可以用于网络爬虫、API调用、网站测试等场景。...读者如果需要使用这个,同样需要执行pip命令用以安装:安装PIP包:pip install requests -i https://pypi.tuna.tsinghua.edu.cn/simple在开始使用之前...参数json是一个Python对象,表示要发送的JSON数据。其他的关键字参数将作为请求头的一部分发送。...在requests中同样支持增加代理功能,代理的写法有两种分别是有密码与无密码,这两种格式可写为:有密码写法:"https": "https://username:password@ip:port"无密码写法

27820

21.8 Python 使用BeautifulSoup

BeautifulSoup用于从HTML或XML文件中提取数据。它可以自动将复杂的HTML文档转换为树形结构,并提供简单的方法来搜索文档中的节点,使得我们可以轻松地遍历和修改HTML文档的内容。...读者如果需要使用这个,同样需要执行pip命令用以安装: 安装PIP包:pip install bs4 -i https://pypi.tuna.tsinghua.edu.cn/simple 21.8.1...if type == "text": respon_page.append(str(item.get_text())) return respon_page 通过使用上述两个封装函数...接着我们继续使用该函数实现定位文章列表功能,文章列表的定位同理,此处第二个参数应修改为href属性,如下代码分别使用两种方式实现对文章列表的定位功能; if __name__ == "__main__"...True text:字符串或正则表达式,用于匹配元素的文本内容 limit:整数,限制返回的匹配元素的数量 kwargs:可变参数,用于查找指定属性名和属性值的元素 我们以输出CVE漏洞列表为例,通过使用

20360

Python 爬虫解析使用

解析使用--Beautiful Soup: BeautifulSoup是Python的一个HTML或XML解析,最主要的功能就是从网页爬取我们需要的数据。...BeautifulSoup 安装与使用: Beautiful Soup是一个依赖于lxml的解析,所以在安装之前要先确保lxml已安装:pip install lxml 安装 BeautifulSoup.../pypi/beautifulsoup4 主要的解析器,以及它们的优缺点: 解析器 使用方法 优势 劣势 Python标准 BeautifulSoup(markup, "html.parser") Python...的内置标准,执行速度适中,文档容错能力强 Python 2.7.3 or 3.2.2前的版本中文档容错能力差 lxml HTML 解析器 BeautifulSoup(markup, "lxml") 速度快...lxml解析器有解析html和xml的功能,而且速度快,容错能力强,故推荐使用

2.7K20

Python之psutil使用

psutil (python system and process utilities) 是一个跨平台的第三方,能够轻松实现获取系统运行的进程和系统利用率(包扩CPU、内存、磁盘、网络等)信息。...同时支持python2与python3版本,当前最新版本为5.4.8。...#与上次调用经过时间内的cpu的使用率 >>> psutil.cpu_percent() 1.3 #当前1s内cpu的使用率 >>> psutil.cpu_percent(interval=1) 0.3...percent 使用内存占比 used 使用的物理内存 free 没有使用的物理内存 active 当前正在使用或最近使用的物理内存 inactive 标记未使用的内存 buffers buffers使用的缓存...cached ccached使用的缓存 shared 显示被共享使用的物理内存大小 slab 内核数据结构缓存 #windows >>> psutil.virtual_memory() svmem

93020
领券