爬虫的学习就是与反扒措施、反扒系统做斗争的一个过程,而使用代理IP是我们重要的防反扒的重要措施,代理IP的来源有两种一是你花钱去购买商家会给你提供一个接口你直接调用就可以了,二是自己在网上爬取高效IP。在这篇博客中我重点给大家讲一下如何从网上获取高效IP,我们下面的IP来源于西刺代理,这是我很久之前写的一篇博客,今天来进行“翻新”一番希望可以帮助到大家。
BeautifulSoup
和requests
,BeautifulSoup
负责解析HTML网页源码,requests
负责发送请求来获取网页源码,BeautifulSoup
和requests
均属于Python爬虫的基础库,可以通过pip安装。打开命令行输入命令pip install BeautifulSoup4
和pip install requests
进行安装:
过后在输入命令pip list
在pip安装包列表中检查BeautifulSoup
和requests
库是否安装成功
待续。。。。
#IP地址取自国内髙匿代理IP网站:http://www.xicidaili.com/nn/ from bs4 import BeautifulSoup import requests,random def get_ipInfors(url, headers): ''' 爬取IP数据,单个IP信息以json格式存储,所有json格式的IP数据信息放入列表中 return:ip_infor ''' web_data = requests.get(url, headers=headers) soup = BeautifulSoup(web_data.text, 'lxml') nodes = soup.find_all('tr') for node in nodes[1:]: ip_ = node.find_all('td') ip_address = ip_[1].text ip_port = ip_[2].text ip_type = ip_[5].text ip_time = ip_[8].text ip_infors = { "ip_address" : ip_address, "ip_port" : ip_port, "ip_type" : ip_type, "ip_time" : ip_time } return ip_infors def write_ipInfors(ip_infors): ''' 将IP数据写入文件中 ''' for ip_infor in ip_infors: f=open('IP.txt','a+',encoding='utf-8') f.write(ip_infors) f.write('\n') f.close() if __name__ == '__main__': for i in range(1,10): url = 'https://www.xicidaili.com/nn/{}'.format(i) headers = { 'Host': 'www.xicidaili.com', 'Referer': 'https://www.xicidaili.com/', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36' } ip_infors = get_ipInfors(url, headers=headers) proxies = write_ipInfors(ip_infors)
本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。
我来说两句