前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python爬虫-首医

python爬虫-首医

作者头像
火星娃统计
发布2020-09-15 15:46:53
3620
发布2020-09-15 15:46:53
举报
文章被收录于专栏:火星娃统计

爬虫实践-首医新发

概述

爬虫项目实践 目标:首都医科大学官网新发文章

步骤

  1. 请求网址
  2. 通过正则表达式提取数据
  3. 分析数据

代码

代码语言:javascript
复制
# 导入模块
# 用于请求网址
import requests
# 用于解析网页源代码
from bs4 import BeautifulSoup
# 用于正则
import re

# 目标网址
# 设置页数,提取10页的数据
page=['']
for i in range(1,10,1):
    page.append(i)
# 保存文件
with open(r'ccmu.csv','a',encoding='utf-8') as f:
    for i in page:
        url= 'http://www.ccmu.edu.cn/zxkylw_12912/index'+str(i)+'.htm'
        # 必要时添加header请求头,防止反爬拦截
        headers={
            'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:79.0) Gecko/20100101 Firefox/79.0'
        }
        # 目标网址请求方式为get
        resp=requests.get(url)
        html = resp.content.decode('utf-8')
        # 解析html
        soup = BeautifulSoup(html,'html.parser')

        # 找到最近发表的sci论文
        # 使用find和find_all 函数
        infos=soup.find('ul',{'class':'list03'}).find_all('li')
        for info in infos:
            time=info.find('span').get_text()
            ajt= info.find('a').get_text()
            # 写入文件
            f.write("{},{}\n".format(time,ajt))

结果

结束语

没啥意思,总体来说首医官网的网页解析还是比较简单的,涉及的标签很少,也没有特意设置反扒手段

love&peace

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-08-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 火星娃统计 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 爬虫实践-首医新发
    • 概述
      • 步骤
        • 代码
          • 结果
            • 结束语
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档