首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python调用API获取内容

一:获取app-key 和 app-secret     使用自己的账号登录开放平台,在开放中心下“创建应用”创建一个应用,应用信息那些随便填,填写完毕后,不需要提交审核,需要的只是那个app-key...在“开放平台”的“管理中心”找到刚才创建的应用,点开这个应用,点开左边“应用信息”栏,会看见“App key”和“App Secret”的字样,这两个东西是要在后面程序中使用的。...三:安装 python SDK 有两种安装方式: 1:http://github.liaoxuefeng.com/sinaweibopy/下载新浪SDK 2:python有个简单的安装方式:直接在命令行下键入...: sudo pip install sinaweibopy 四:实例验证,获取当前登录用户及其所关注(授权)用户的最新 这里需要注意的是在浏览器弹出一个页面,要先点击“授权”(这里进行的OAuth...以下为我的关注用户的: ? ? ? ? 拿上边代码为例,这里我们获取的信息有: ?

3.4K41

python 新浪爬虫

/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/7/1 上午3:29 # @Author : BrownWang # @Email.../0070m4EAly8fpp1pwqq26j3050050jrb.jpg 是否认证:False 说明:知名财经主 头条文章作者 签约自媒体 关注人数:3301 粉丝数:111 性别:m 等级...:11 -----正在爬取第1页,第0条------ -----正在爬取第1页,第1条------ -----正在爬取第1页,第2条------ -----正在爬取第1页,第3条---...--- -----正在爬取第1页,第4条------ -----正在爬取第1页,第5条------ -----正在爬取第1页,第6条------ -----正在爬取第1页,第7条----...-- -----正在爬取第1页,第8条------ -----正在爬取第2页,第0条------ -----正在爬取第2页,第1条------ -----正在爬取第2页,第2条-----

1.4K40
您找到你想要的搜索结果了吗?
是的
没有找到

python模拟新浪登陆功能(新浪爬虫)

Python) PC 登录新浪时, 在客户端用js预先对用户名、密码都进行了加密, 而且在POST之前会GET 一组参数,这也将作为POST_DATA 的一部分。...由于要用的一部分数据用API获取不方便, 所以还是要自己写个小爬虫, 模拟登录是必不可少的。琢磨了一下这个东西,最终登录成功。...接下来再请求这个URL,这样就成功登录到了。 记得要提前build 缓存。 下面是完整代码(没加注释,凑合看吧): #!...很多豆友反馈有模拟登录新浪抓取数据的需求,其实对于一般的数据获取,如用户信息、内容等,使用开放平台API是更明智的选择:速度更快,而且节省许多网页处理的功夫。...熟悉Web的朋友只要定期维护模拟登录的代码就可以一直成功登录。如果不那么熟悉的话,其实可以采用更naive的思路来解决:直接将Cookie发送给新浪以实现模拟登录。

3.1K60

Python模拟登陆

经过的一天的研究,把模拟登陆基本上弄清楚了,下面就把过程详细说明。...---- 工具和环境 1.语言:Python3 2.IDE: Pycharm 3.浏览器:Chrome 4.使用的库:re, rsa, base64, requests, PIL, urllib ---...- 模拟登陆过程 弄清楚所需的数据 首先我们在Chrome浏览器中打开登陆界面,然后Ctrl+shift+i开启开发者工具,在开发者工具的Network选项里找到Preserve log并勾选,然后登录你的...我们只需要找到这几个数据就可以模拟登录到,那么怎么找到这些数据呢?接着往下看… 获取servertime,nonce等数据 在登录页面里打开开发者工具,清除Network里的数据。...wvr=5&lf=reg"}}); 提取你自己的uniqueid值放入下列网址中get得到你的主页信息。

1.2K90

Python 制作抓取 GUI 程序

在前面的分享中,我们制作了一个天眼查 GUI 程序,今天我们在这个的基础上,继续开发新的功能,抓取工具,先来看下最终的效果 整体的界面还是继承自上次的天眼查界面,我们直接来看相关功能 功能布局...我们整体的界面布局就是左侧可以选择不同功能,然后右侧的界面会对应改变 创建 Widget 对于右侧界面的切换,我们可以为不同的功能创建不同的 Widget,当点击左侧不同功能按钮后,对应切换 Widget..."""子进程查询""" class WeiBoQueryThread(QThread): # 创建一个信号,触发时传递当前时间给槽函数 update_data = pyqtSignal...weibo_page = None total_pv = 0 timestamp = str(int(time.time())) def run(self): # 爬虫...,这里就不再展开说明了,我是把所有爬虫的代码都封装好了,这里直接调用暴露的接口即可 ❝对爬虫感兴趣的同学可以点点赞和在看,如果数量可观就专门写一篇文章,谢谢大家 词云制作 对于词云的制作,我们还是先通过

57910

Python selenium实现自动登录

(一)编程环境 操作系统:Win 10 编程语言:Python 3.6 (二)安装selenium 这里使用selenium实现。...如果没有安装过python的selenium库,则安装命令如下 pip install selenium (三)下载ChromeDriver 因为selenium要用到浏览器的驱动,这里我用的是Google...(四)分析登录界面 通常而言,m站的网页结构比pc站要简单的多,咱们可以从m站入手。...m站登录界面的网址是 https://passport.weibo.cn/signin/login 在Chrome浏览器中打开此地址,并右键点击界面的任何位置-->查看网页源代码,发现邮箱/手机号框的...(五)编写python程序 from selenium import webdriver import time browser = webdriver.Chrome("C:\Program Files

1.1K10

爬虫,python用户主页小姐姐图片内容采集爬虫

python爬虫,爬虫,需要知晓用户id号,能够通过抓取用户主页内容来获取用户发表的内容,时间,点赞数,转发数等数据,当然以上都是本渣渣结合网上代码抄抄改改获取的! ?...要抓取的地址:https://weibo.com/u/5118612601 BUT,我们实际应用的抓取地址:https://m.weibo.cn/u/5118612601(移动端的地址) ?...----" + "\n") fh.write(f"地址: {str(scheme)}\n内容:{raw_text}\n"...手里头有二份爬虫的源码,不同的爬取地址和思路,一起分享给大家,仅供参考学习! 一份还包含GUI界面,当然这是本渣渣参考的主要来源代码! ? 亲测可运行哈!! 关注本渣渣信公众号:二爷记 ?...后台回复关键字:“爬虫” 获取所有源码

1K20

使用python模拟登陆腾讯

由于业务需要,研究了一下腾讯等登陆,下面分享一些经验给大家: 标题写的是腾讯的登陆,其实也可以隐身到腾讯旗下多个产品的登陆,比如QQ空间,webQQ等,想到这儿大伙是不是很激动呢?...下面我以Python为例: 分析登录过程 登录过程需要抓包,我是用的HttpWatch,大体步骤如下 第一步 手动登陆,抓包,记录登录过程 当输入完账号后想服务器请求验证码 等级登陆按钮后将登录信息发送至认证服务器...,实现第一次认证 服务器返回登陆成功信息,其中包含最终URL 第二次认证,获取腾讯的cookie 第二步 伪造登录过程 获取验证码 根据验证码计算出加密后的密码以及其他信息,发送GET请求至认证服务器

93020

Python简单实现自动点赞

觉得手动点赞太过麻烦?其实自动点赞的实现并不困难!...本篇会有Cookie、session和token方面的知识,不太了解的可以先看下 我们先通过前两个小节大概了解一下我们Python登录的原理,然后第三小节就会跟大家介绍自动点赞的代码。...既然都登陆了,我们先试试能不能顺便发吧 同样的,在编辑页面点击F12进入开发者工具,我们先试试发送一个,Network标签会出现什么新的内容吧 「网页截图↓」 当界面点击发送之后...参数有两个一个是content 也就是发送的内容,另一个是st,这里的st通过几次的检验,猜测应该是网站的反爬虫措施。...的分享就到此为止,以后如果有好玩的Python程序,我还会继续向大家分享的。

1.8K30

使用Python爬取表情包

表情包是大家聊天的时候的必备,之前在知乎上爬取了一些表情包,但是已经用的久了该换新的了,所以我们再通过爬虫技术去爬一波表情包吧。...本来这个爬虫是想作为讲python异步爬虫的一个例子的,昨天代码写完测试了一下,结果是我账号和ip都直接被封了,然后我去搜了一下别人写的异步爬虫教程,测试用的都是些没啥反爬措施的小网站。...于是今天改了下代码,就先整个普普通通的小爬虫算了。鉴于之前IP被封,所以这次在在访问的时候我加上了代理。关于选择代理也是让人很烦恼的事,网上的代理太多了,靠谱的太少。...StreamReader(response.GetResponseStream(), Encoding.UTF8)) { string htmlStr = sr.ReadToEnd(); 访问除了像代理和一些反爬机制需要我们做好以外并没有什么难度...,到此这篇关于Python模拟登录并爬取表情包的文章就介绍到这了,大家有哪些意见可以发出来一起交流交流。

1K20

Python爬虫之评论爬取

專 欄 ❈ 罗罗攀,Python中文社区专栏作者 专栏地址: http://www.jianshu.com/u/9104ebf5e177 ❈ 提交Cookie信息模拟登录 需要爬取登录之后的信息...,大家都是望而止步,不要担心,今天呢,给大家提供一个超级简单的方法,就是提交Cookie信息登录,首先,我们找到某明星的网址:http://m.weibo.cn/u/1732927460 这里是登录的移动端...,你会发现,你点击网址会自动跳转到登录的界面(没有跳转的注销掉自己的账号),如下图所示: ?...然后登录自己的账号密码,这时记得打开Fiddler进行抓包,如图所示,提取Cookie做为请求某明星网址的请求头即可。 ?...异步加载数据如何爬取 我在网上看过移动端的数据很好爬,没有异步加载,可是不知道为什么,我的评论数据就是异步加载的,其实异步加载不可怕,找到相应js包即可,如下图为某明星的一条和评论的js包。

1.1K60

python爬虫,每日百万级数据

新浪绝对是一个巨大的,实时的语料库!对数据爬取和分析,有重大的意义。...当然例子还有很多,那么,首先,要有数据! 所以,就产生了众多的爬虫项目。后来,新浪也开放了的API接口,但是官方的东西,限制还是很多的。...我整理的在这里:User-Agent池 本文源码地址: 关注信公众号datayx 然后回复“”即可获取。 充足的账号 爬虫,必须登录以后,才能抓取。...运行环境为:Python3 需要依赖包括:pymogo,scrapy 部署服务器,Run!...运行爬虫 克隆代码到服务器中,安装依赖,并执行 nohup python run.py 就已经开始不停的爬取了! 通过命令:tail -10 weibo.log 查看最新的日志。 ?

1.1K10
领券