前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python 3种模块解析html文档

python 3种模块解析html文档

作者头像
用户5760343
发布2022-05-14 14:38:00
7330
发布2022-05-14 14:38:00
举报
文章被收录于专栏:sktjsktj

//BeautifulSoup和html5lib、HTMLParser模块

!/usr/local/bin/python3

from html.parser import HTMLParser from io import StringIO from urllib.request import urlopen,Request from urllib.parse import urljoin from time import sleep from bs4 import BeautifulSoup,SoupStrainer

URLs=('http://python.org', 'http://baidu.com', )

def output(x): # print(set(x)) print('\n'.join(sorted(set(x)))) # sleep(0.01)

def simpleBS(url,f): output(urljoin(url,x['href']) for x in BeautifulSoup(f).findAll('a'))

def fasterBS(url,f): b=BeautifulSoup(f,parseOnlyThese=SoupStrainer('a')).findAll('a') output(urljoin(url,x['href']) for x in b)

def htmlparser(url,f): class AnchorParser(HTMLParser): def handle_starttag(self,tag, attrs): if tag!='a': return if not hasattr(self,'data'): self.data=[] for attr in attrs: if attr[0]=='href': self.data.append(attr[1]) parser=AnchorParser() parser.feed(f.read()) output(urljoin(url,x)for x in parser.data)

def process(url,data): print('\n *** simpleBS') simpleBS(url,data) data.seek(0) print('\n*** fasterBS') fasterBS(url,data) data.seek(0) print('\n ***htmlparser') htmlparser(url,data) data.seek(0)

def main(): for url in URLs: req=Request(url,headers = { 'Connection': 'Keep-Alive', 'Accept': 'text/html, application/xhtml+xml, /', 'Accept-Language': 'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko'}) f=urlopen(req) data=StringIO(f.read().decode()) f.close() process(url,data)

if name=='main': main()

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2022-05-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • !/usr/local/bin/python3
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档