首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python简单实现自动点赞

觉得手动点赞太过麻烦?其实自动点赞的实现并不困难!...本篇会有Cookie、session和token方面的知识,不太了解的可以先看下 我们先通过前两个小节大概了解一下我们Python登录的原理,然后第三小节就会跟大家介绍自动点赞的代码。...既然都登陆了,我们先试试能不能顺便发吧 同样的,在编辑页面点击F12进入开发者工具,我们先试试发送一个,Network标签会出现什么新的内容吧 「网页截图↓」 当界面点击发送之后...参数有两个一个是content 也就是发送的内容,另一个是st,这里的st通过几次的检验,猜测应该是网站的反爬虫措施。...的分享就到此为止,以后如果有好玩的Python程序,我还会继续向大家分享的。

1.8K30

Python调用API获取内容

一:获取app-key 和 app-secret     使用自己的账号登录开放平台,在开放中心下“创建应用”创建一个应用,应用信息那些随便填,填写完毕后,不需要提交审核,需要的只是那个app-key...在“开放平台”的“管理中心”找到刚才创建的应用,点开这个应用,点开左边“应用信息”栏,会看见“App key”和“App Secret”的字样,这两个东西是要在后面程序中使用的。...三:安装 python SDK 有两种安装方式: 1:http://github.liaoxuefeng.com/sinaweibopy/下载新浪SDK 2:python有个简单的安装方式:直接在命令行下键入...: sudo pip install sinaweibopy 四:实例验证,获取当前登录用户及其所关注(授权)用户的最新 这里需要注意的是在浏览器弹出一个页面,要先点击“授权”(这里进行的OAuth...以下为我的关注用户的: ? ? ? ? 拿上边代码为例,这里我们获取的信息有: ?

3.4K41
您找到你想要的搜索结果了吗?
是的
没有找到

python 新浪爬虫

/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/7/1 上午3:29 # @Author : BrownWang # @Email.../0070m4EAly8fpp1pwqq26j3050050jrb.jpg 是否认证:False 说明:知名财经主 头条文章作者 签约自媒体 关注人数:3301 粉丝数:111 性别:m 等级...:11 -----正在爬取第1页,第0条------ -----正在爬取第1页,第1条------ -----正在爬取第1页,第2条------ -----正在爬取第1页,第3条---...--- -----正在爬取第1页,第4条------ -----正在爬取第1页,第5条------ -----正在爬取第1页,第6条------ -----正在爬取第1页,第7条----...-- -----正在爬取第1页,第8条------ -----正在爬取第2页,第0条------ -----正在爬取第2页,第1条------ -----正在爬取第2页,第2条-----

1.4K40

python模拟新浪登陆功能(新浪爬虫)

Python) PC 登录新浪时, 在客户端用js预先对用户名、密码都进行了加密, 而且在POST之前会GET 一组参数,这也将作为POST_DATA 的一部分。...这样, 就不能用通常的那种简单方法来模拟POST 登录( 比如 人人网 )。 由于要用的一部分数据用API获取不方便, 所以还是要自己写个小爬虫, 模拟登录是必不可少的。...很多豆友反馈有模拟登录新浪抓取数据的需求,其实对于一般的数据获取,如用户信息、内容等,使用开放平台API是更明智的选择:速度更快,而且节省许多网页处理的功夫。...熟悉Web的朋友只要定期维护模拟登录的代码就可以一直成功登录。如果不那么熟悉的话,其实可以采用更naive的思路来解决:直接将Cookie发送给新浪以实现模拟登录。...1,获取Cookie 很简单,使用Chrome浏览器的”开发者工具(Developer Tools)“或者Firefox的"HTTPFOX"等插件就可以直接查看自己新浪的Cookie。

3.1K60

Python模拟登陆

经过的一天的研究,把模拟登陆基本上弄清楚了,下面就把过程详细说明。...---- 工具和环境 1.语言:Python3 2.IDE: Pycharm 3.浏览器:Chrome 4.使用的库:re, rsa, base64, requests, PIL, urllib ---...- 模拟登陆过程 弄清楚所需的数据 首先我们在Chrome浏览器中打开登陆界面,然后Ctrl+shift+i开启开发者工具,在开发者工具的Network选项里找到Preserve log并勾选,然后登录你的...我们只需要找到这几个数据就可以模拟登录到,那么怎么找到这些数据呢?接着往下看… 获取servertime,nonce等数据 在登录页面里打开开发者工具,清除Network里的数据。...wvr=5&lf=reg"}}); 提取你自己的uniqueid值放入下列网址中get得到你的主页信息。

1.2K90

Python selenium实现自动登录

(一)编程环境 操作系统:Win 10 编程语言:Python 3.6 (二)安装selenium 这里使用selenium实现。...如果没有安装过python的selenium库,则安装命令如下 pip install selenium (三)下载ChromeDriver 因为selenium要用到浏览器的驱动,这里我用的是Google...(四)分析登录界面 通常而言,m站的网页结构比pc站要简单的多,咱们可以从m站入手。...m站登录界面的网址是 https://passport.weibo.cn/signin/login 在Chrome浏览器中打开此地址,并右键点击界面的任何位置-->查看网页源代码,发现邮箱/手机号框的...(五)编写python程序 from selenium import webdriver import time browser = webdriver.Chrome("C:\Program Files

1.1K10

Python 制作抓取 GUI 程序

在前面的分享中,我们制作了一个天眼查 GUI 程序,今天我们在这个的基础上,继续开发新的功能,抓取工具,先来看下最终的效果 整体的界面还是继承自上次的天眼查界面,我们直接来看相关功能 功能布局...我们整体的界面布局就是左侧可以选择不同功能,然后右侧的界面会对应改变 创建 Widget 对于右侧界面的切换,我们可以为不同的功能创建不同的 Widget,当点击左侧不同功能按钮后,对应切换 Widget..."""子进程查询""" class WeiBoQueryThread(QThread): # 创建一个信号,触发时传递当前时间给槽函数 update_data = pyqtSignal...weibo_page = None total_pv = 0 timestamp = str(int(time.time())) def run(self): # 爬虫...,这里就不再展开说明了,我是把所有爬虫的代码都封装好了,这里直接调用暴露的接口即可 ❝对爬虫感兴趣的同学可以点点赞和在看,如果数量可观就专门写一篇文章,谢谢大家 词云制作 对于词云的制作,我们还是先通过

58010

爬虫,python用户主页小姐姐图片内容采集爬虫

python爬虫,爬虫,需要知晓用户id号,能够通过抓取用户主页内容来获取用户发表的内容,时间,点赞数,转发数等数据,当然以上都是本渣渣结合网上代码抄抄改改获取的! ?...要抓取的地址:https://weibo.com/u/5118612601 BUT,我们实际应用的抓取地址:https://m.weibo.cn/u/5118612601(移动端的地址) ?...----" + "\n") fh.write(f"地址: {str(scheme)}\n内容:{raw_text}\n"...手里头有二份爬虫的源码,不同的爬取地址和思路,一起分享给大家,仅供参考学习! 一份还包含GUI界面,当然这是本渣渣参考的主要来源代码! ? 亲测可运行哈!! 关注本渣渣信公众号:二爷记 ?...后台回复关键字:“爬虫” 获取所有源码

1K20

的爬虫思路:Python通过移动端接口爬取,简单易操作

今天,小编就给大家带来一个Python通过移动端接口爬取的案例,同时用pyinstaller打包成exe,可以帮助大家用最简单的方式下载到的数据,大家如果有需要的可以免费下载使用。...这是主:Vsinger_洛天依 的: 下图就是采集到的内容,导出到表格当中 我们可以看到数据字段非常的丰富,无论我们想要进行对这些数据进行什么维度的分析,都可以利用到。...是不是非常傻瓜,那么我们的同学们如果选题要用到的数据,有了这款小工具就可以节省很多采集数据的时间了。是不是非常nice?...total_num / 10): print('没有更多页了') break 4、将获取的内容保存: '''数据导出到表格当中''' self.excel_save(file_name + '_文...原文链接: 一个专门用于下载博大V文的小工具,限时免费下载使用 – 富泰科 (futaike.net)

2K30

教你一招 | 用Python写一个简单爬虫

,但后来发现新浪的API限制实在太多,大家感受一下: ?...所以果断放弃掉这条路,改为『生爬』,因为PC端的是Ajax的动态加载,爬取起来有些困难,我果断知难而退,改为对移动端的进行爬取,因为移动端的可以通过分页爬取的方式来一次性爬取所有内容,这样工作就简化了不少...最后实现的功能: 输入要爬取的用户的user_id,获得该用户的所有 文字内容保存到以%user_id命名文本文件中,所有高清原图保存在weibo_image文件夹中 具体操作: 首先我们要获得自己的...用chrome打开新浪移动端 option+command+i调出开发者工具 点开Network,将Preserve log选项选中 输入账号密码,登录新浪 ?...将python代码保存到weibo_spider.py文件中 定位到当前目录下后,命令行执行python weibo_spider.py user_id 当然如果你忘记在后面加user_id,执行的时候命令行也会提示你输入

908100

使用python模拟登陆腾讯

由于业务需要,研究了一下腾讯等登陆,下面分享一些经验给大家: 标题写的是腾讯的登陆,其实也可以隐身到腾讯旗下多个产品的登陆,比如QQ空间,webQQ等,想到这儿大伙是不是很激动呢?...数据采集 有时候简单的数据不需要这么大费周折!使用某些语言自带的web工具也是可以的!...下面我以Python为例: 分析登录过程 登录过程需要抓包,我是用的HttpWatch,大体步骤如下 第一步 手动登陆,抓包,记录登录过程 当输入完账号后想服务器请求验证码 等级登陆按钮后将登录信息发送至认证服务器...,实现第一次认证 服务器返回登陆成功信息,其中包含最终URL 第二次认证,获取腾讯的cookie 第二步 伪造登录过程 获取验证码 根据验证码计算出加密后的密码以及其他信息,发送GET请求至认证服务器

93020
领券