前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python用法总结

python用法总结

作者头像
py3study
发布2020-01-09 10:33:57
4690
发布2020-01-09 10:33:57
举报
文章被收录于专栏:python3python3

requests库的用法:

requests是python实现的简单易用的HTTP库

因为是第三方库,所以使用前需要cmd安装

pip ×××tall requests

安装完成后import一下,正常则说明可以开始使用了

基本用法:

import requests form bs4 import BeautifulSoup response = requests.get('http://www.baidu.com') print(response.status_code) # 打印状态码 print(response.url) # 打印请求url print(response.headers) # 打印头信息 print(response.cookies) # 打印cookie信息 print(response.text) #以文本形式打印网页源码 print(response.content) #以字节流形式打印

#!/usr/bin/env python

encoding=utf-8

from future import print_function import requests from bs4 import BeautifulSoup import pymongo import json

db = pymongo.MongoClient().iaaf def spider_iaaf():

url 100 换成longjump的

代码语言:javascript
复制
# url = 'https://www.iaaf.org/records/toplists/sprints/100-metres/outdoor/men/senior/2018?page={}'
url = 'https://www.iaaf.org/records/toplists/jumps/long-jump/outdoor/men/senior/2018?regionType=world&windReading=regular&page={}&bestResultsOnly=true'
headers = {
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0 Safari/605.1.15', }

for i in range(1,23):
    res = requests.get(url.format(i), headers=headers)
    html = res.text
    print(i)
    soup = BeautifulSoup(html, 'html.parser')
    #tbody_l = soup.find_all('tbody')
    record_table = soup.find_all('table', class_='records-table')
    list_re = record_table[2]
    tr_l = list_re.find_all('tr')
    for i in tr_l:    # 针对每一个tr  也就是一行
        td_l = i.find_all('td')    # td的列表 第三项是 带href
        # 只要把td_l里面的每一项赋值就好了  组成json数据  {}  插入到mongo
        # 再从mongo里面取href  访问  得到 生涯数据  再存回这个表
        # 再 把所有数据 存到 excel

        j_data = {}
        try:
            j_data['Rank'] = td_l[0].get_text().strip()
            j_data['Mark'] = td_l[1].get_text().strip()
            j_data['WIND'] = td_l[2].get_text().strip()
            j_data['Competitior'] = td_l[3].get_text().strip()
            j_data['DOB'] = td_l[4].get_text().strip()
            j_data['Nat'] = td_l[5].get_text().strip()
            j_data['Pos'] = td_l[6].get_text().strip()
            j_data['Venue'] = td_l[8].get_text().strip()
            j_data['Date'] = td_l[9].get_text().strip()

            j_data['href'] = td_l[3].find('a')['href']
        except:
            pass
        db.athletes.×××ert_one(j_data)

if name == 'main': spider_iaaf()

bs4的用法: BeautifulSoup,就是一个第三方的库,使用之前需要安装

代码语言:javascript
复制
pip ×××tall bs4

配置方法: (1)cd ~ (2)mkdir .pip (3)vi ~/.pip/pip.conf (4)编辑内容和windows的内容一模一样

bs4是什麽?

代码语言:javascript
复制
它的作用是能够快速方便简单的提取网页中指定的内容,给我一个网页字符串,然后使用它的接口将网页字符串生成一个对象,然后通过这个对象的方法来提取数据

bs4语法学习

通过本地文件进行学习,通过网络进行写代码 (1)根据标签名进行获取节点 只能找到第一个符合要求的节点 (2)获取文本内容和属性 属性

soup.a.attrs 返回一字典,里面是所有属性和值 soup.a['href'] 获取href属性

文本

soup.a.string soup.a.text soup.a.get_text() 【注】当标签里面还有标签的时候,string获取的为None,其他两个获取纯文本内容

(3)find方法

soup.find('a') soup.find('a', class_='xxx') soup.find('a', title='xxx') soup.find('a', id='xxx') soup.find('a', id=re.compile(r'xxx')) 【注】find只能找到符合要求的第一个标签,他返回的是一个对象

(4)find_all

返回一个列表,列表里面是所有的符合要求的对象 soup.find_all('a') soup.findall('a', class='wang') soup.find_all('a', id=re.compile(r'xxx')) soup.find_all('a', limit=2) 提取出前两个符合要求的a

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-08-24 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • encoding=utf-8
  • url 100 换成longjump的
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档