前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python爬虫抓取富贵论坛

python爬虫抓取富贵论坛

原创
作者头像
曾高飞
修改2021-09-22 09:17:07
6300
修改2021-09-22 09:17:07
举报

本人是个爬虫小萌新,看了网上教程学着做爬虫爬取富贵论坛www.fgba.net,如果有什么问题请大佬们反馈,谢谢。

以下是用lxml来爬取的。

from lxml import etree def getHTMLText(url): kv = { 'cookie': 'ssids=1581214855718752; sfroms=JIAOYIMALL001; historyScanGame=%5B%225667%22%2Cnull%5D; session=1581214855718753-7; showFixGuideDialog=true' , 'user-agent': 'Mozilla/5.0'} r = requests.get(url, headers=kv) r.raise_for_status() r.encoding = 'utf-8' return r.text def shixian(url): htmls = etree.HTML(url) mc = htmls.xpath( '//div[@class="wrap"]/div[@class="mod-con sel-content "]/div[@class="bd"]/ul[@class="list-con specialList"]/li[@name="goodsItem"]/span[@class="name"]/span[@class="is-account"]/a/text()') price = htmls.xpath( '//div[@class="wrap"]/div[@class="mod-con sel-content "]/div[@class="bd"]/ul[@class="list-con specialList"]/li[@name="goodsItem"]/span[@class="price"]') count = 0 tplt = "{:4}\t{:12}\t{:20}" print(tplt.format("富贵论坛")) for i in range(len(mc)): count = count + 1 print(tplt.format(count, price[i].text, mc[i], chr(12288)))if __name__ == '__main__': url='https://www.fgba.net/' lists=[] url=url+'-n'+'1'+'.html' html=getHTMLText(url) shixian(html)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档