首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python爬取新浪微博评论

环境:Python3 + windows。

开发工具:Anaconda + Jupyter / VS Code。

学习效果:

认识爬虫 / Robots协议

了解浏览器开发者工具

动态加载页面的处理

手机客户端页面的数据采集

Robots.txt 协议

Robots协议,也称为爬虫协议

网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots是一个协议,而不是一个命令。Robots.txt文件是一个文本文件,是放置在网站根目录下,使用任何一个常见的文本编辑器,就可以创建和编辑它。Robots.txt是搜索引擎中访问网站的时候要查看的第一个文件,其主要的作用就是告诉蜘蛛程序在服务器上什么文件是可以被查看的。

Robots协议是国际互联网界通行的道德规范。约定俗成。

私信我可以获取本篇教程视频

Python代码

导入模块

import requests

import pandas

import json

import time

反爬

head = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:56.0) Gecko/20100101 Firefox/56.0'}

Cookie = {'Cookie':'_T_WM=f6d406d777aafb7ed7671865d1f83799; SUB=_2A2504yPYDeRhGeNO6VMY9SvEyTuIHXVULE2QrDV6PUJbkdAKLW_YkW0b_QKWV_mSPrmPv7aZsGtGMxBDlQ..; SUHB=079ja78HU_LZCb; SCF=AmqC1lSo0254S3K0WtBQVQwXfOSQ7ivbLAOSCObPteJy5JckO3l0ZH7pSTuid_JRXlWylgjTetdZzQcModbM4A4.; H5:PWA:UID=1; M_WEIBOCN_PARAMS=featurecode%3D20000320%26oid%3D4160547165300149%26luicode%3D20000061%26lfid%3D4160547165300149; H5_INDEX=0_all; H5_INDEX_TITLE=%E6%8C%96%E6%8E%98%E6%9C%BA%E5%A4%A7%E7%8E%8B%E5%AD%90'}

真正的爬虫

如果想加快我们这个程序的爬取速度该怎么办 ? ?

IP代理,Cookies池,多线程 / 多进%程等,验证码等。

Python发展方向

数据分析/数据挖掘

关联分析【啤酒与尿布】,聚类分析 ,判别分析 ,随机森林 .

人工智能

一种能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理等。例如AlphaGo , AlphaGo Zero.

Python运维

不会开发的运维终将被淘汰!!!

WEB开发

开发网站,例如豆瓣网。侧重于实战!!!

Python爬虫

采集网络数据,为数据分析或大数据等提供支持,大型的比如Google,百度等。侧重于实战!!!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180518A12EH200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券