首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

可视化网站定制:话题人物关系共现可视化

这是 月小水长 的第 120 篇原创干货 写了个一站式微分析可视化网站 作为长期项目,本次开放话题人物关系共现可视化功能,用户可以输入 2021 新版话题爬虫发布 的 csv 结果文件和自己的邮箱...,然后网站后台提取话题的文本内容中相互艾特的人物关系并且生成 gephi 构图所需的 edge.csv 和 node.csv 文件,处理成功并压缩后发送至你输入的邮箱地址。...1、话题爬虫的 csv 文件必须有 user_name 和 content 列,其中 user_name 是每一条边的起点,user_name 对应的 content 就是我们要提取出的 @ 人物的文本...2、后台处理耗时不到 1 min,如果超时还没有收到,请查看邮件垃圾箱,再不然在文末点击阅读原文的 buyiXiao's blog 网站留言,我会及时查看后台日志并反馈。...导入边数据集有个大坑是,需要用记事本将 edge.csv 改成 ANSI 格式,然后导入电子表格时格式选择 GB2312,否则 gephi 会提示以下错误: 边表格需要一个包含节点标号”源“和”目标“列 最后,有关可视化网站的更新日志和功能大全

51720

自助采集及可视化网站汇总

自助抓取网站系列陆陆续续更新了以下几篇。...带 ip 属地,无 Cookie 话题自助抓取网站上线 零配置构建多层转发网络可视化的网站来了 零配置构建用户关系网络的网站也来了 新增 ip 属地,抓得更多,超级评论爬虫大更新...中断可继续,10w+,无 cookie 评论抓取网站上线 可按关键词和时间段搜索,用户爬虫上新 每个爬虫都是一个站点,但是这几个站点没有任何关联,不能从一个跳转到另外一个,七八个站点不容易收藏...例如,之前访问多级转发网络构建站点的链接是: https://weibo-layer-repost.buyixiao.xyz/ 现在点击这个链接,它会自动跳转到当前站点下的对应子链接: https:...同时,以后若有功能更新,比如签到数据抓取和可视化,就不用开新链接了,直接在当前站点就能看到。

61410
您找到你想要的搜索结果了吗?
是的
没有找到

Python调用API获取内容

一:获取app-key 和 app-secret     使用自己的账号登录开放平台,在开放中心下“创建应用”创建一个应用,应用信息那些随便填,填写完毕后,不需要提交审核,需要的只是那个app-key...在“开放平台”的“管理中心”找到刚才创建的应用,点开这个应用,点开左边“应用信息”栏,会看见“App key”和“App Secret”的字样,这两个东西是要在后面程序中使用的。...三:安装 python SDK 有两种安装方式: 1:http://github.liaoxuefeng.com/sinaweibopy/下载新浪SDK 2:python有个简单的安装方式:直接在命令行下键入...: sudo pip install sinaweibopy 四:实例验证,获取当前登录用户及其所关注(授权)用户的最新 这里需要注意的是在浏览器弹出一个页面,要先点击“授权”(这里进行的OAuth...以下为我的关注用户的: ? ? ? ? 拿上边代码为例,这里我们获取的信息有: ?

3.4K41

可视化网站新增位置栏目:收录 5w 条北京地标签到数据

周末抽空补全了可视化网站上三大聚合之一的位置聚合栏目。 大概收录了北京这么些地点的数据。..."北京动物园", "元大都城垣遗址公园", "水立方", "鼓楼大街" 一共 49 个地名(笔者应该去过不到一半),5w 条打卡信息(近一个月);地名是我在北京地图上漫游手动摘录的...pcid=B2094654D36EA6FF459A&ext={%22lbsType%22:%22poi%22,%22lbsID%22:%22B2094654D26AA7FC419F%22} 近来改版...,对地名相关搜索接口收窄了,不能够搜索非所在城市的地名了;所以之前的位置聚合爬虫已经失效了,需要稍作修改,不过由于种种限制,先静观其变,等待该接口稳定后再予以修正。

79320

【开放源代码搜索用户爬虫

保证阅读体验,文中广告已关闭~ 超级方便的用户信息爬虫 是根据用户 Uid 来抓取公开的用户信息,但是很多时候,我们可能只知道这个用户的名字,并不知道 Uid,本次开放的爬虫就是完成从用户名到...主要抓取逻辑如下,可以像 不写一行,自动生成爬虫代码 文章里说的那样自动生成该部分代码。 def getUidByName(name): # https://s.weibo.com/user?...dfAddUserLink('test.csv', user_name_column='user_name') 代码地址在: https://github.com/Python3Spiders/WeiboSuperSpider...最后依旧是话题爬虫的日常更新,修复了群里朋友提出的若干问题,提升了稳定性。可以去 2021 新版话题爬虫发布 获取最新的话题爬虫。

98720

Java网络爬虫抓取新浪个人记录

接下来就是新浪的抓取,一般的http访问新浪网站得到的html都是很简略的,因为新浪主页是用js动态生成的并且要进过多次的http请求与验证才能访问成功,所以为了数据抓取的简便,我们走一个后门...,也就是访问新浪的手机端,weibo.cn进行抓取,但随之而来的一个问题是,新浪的访问不管哪一端都需要强制的登陆验证,所以我们需要在http请求的时候附带一个cookie进行用户验证。...weibo.cn的cookie * @author hu */ public class WeiboCN { /** * 获取新浪的cookie,这个方法针对weibo.cn...有效,对weibo.com无效 * weibo.cn以明文形式传输数据,请使用小号 * @param username 新浪用户名 * @param password...新浪密码 * @return * @throws Exception */ public static String getSinaCookie(String

38640

iOS开发之新浪山寨版代码优化

之前发表过一篇博客“IOS开发之新浪围脖”,在编写代码的时候太偏重功能的实现了,写完基本功能后看着代码有些别扭,特别是用到的四种cell的类,重复代码有点多,所以今天花点时间把代码重构一下。...在原来的代码上就把cell的代码进行了重写,所以本篇作为补充,关键代码还得看之前的博客。   1.第一种cell,只有内容,没有图片,效果如下: ?   ...dd日 HH:mm"]; 44 self.dateLabel.text = [resultFormatter stringFromDate:date]; 45 46 //设置文...,如果我们再加第二个cell(原带图片的)就简单多了,可以继承与上面的cell ?   ...self.contentImage setImageWithURL:[NSURL URLWithString:dic[@"thumbnail_pic"]]]; } @end   3.第三种cell,是转发不带图片的

66790

分享代码怎么显示自定义来源

在很久之前(久到百度分享好用的时候)本站一直在使用百度分享代码,但是不知道从何时起,百度关闭的分享代码的官方,虽说之前的分享代码还是能用,但是总有一种岌岌可危的感受,就怕忽然那一天关闭了接口,网站没有分享了...,虽然有了也不见得有人会真的分享哈,但是人就是这样,我可以不用,但是你不能没有,嗯嗯,貌似很有道理,所以前些天把百度的代码更换了本地分享,更换之后发现,分享的来源显示“分享代码”,这就很不正规,所以把代码又双叒叕重新折腾一番...,终于可以实现自定义的小尾巴了,教程开始。...首先申请开发者,注册并完善账号信息,然后申请未连接,选择网站接入: ? 创建新应用,设置应用名称,注意,此名称也可用于来源显示,应用分类选择网页应用,如图: ?...在新弹出的界面,点击左侧导航栏的控制台,查看如图App Key的值,复制下来,粘贴在分享代码里就可以了,本站主题已经有分享接口,没有的别急,会一批批更新此功能的。 ?

52920

分享代码怎么显示自定义来源

很久以前(百度分享好用的时候)这个网站一直在用百度分享代码,但是不知道从什么时候开始,百度关闭的分享代码的官方,虽然之前的分享代码还是可以用的,但是总有一种岌岌可危的感觉,就怕那天突然关闭界面,网站没有分享...嗯,好像很有道理,所以前几天我把百度的代码换成了本地分享。换了之后发现分享的来源显示分享代码,很不正规,所以再折腾代码,终于可以实现定制的小尾巴了。...先申请开发者,注册并完善帐号信息,再申请未连接,选择网站访问: 创建新的应用程序,设置应用程序名称,注意,这个名称也可以用来显示来源,应用程序分类选择网页应用程序,如图: 完善应用信息,如图,请仔细填写红框中的信息...在新弹出的界面上,点击左侧导航栏的控制台,查看如图所示的AppKey值,复制并粘贴到共享代码中。这个网站的主题已经有了共享界面。如果没有,别担心,这个功能会批量更新。...PS:要实现登录功能,需要在界面管理中找到授权机制,在右页授权回调页面的界面上添加登录的登录地址。这是根据界面给出的,不统一。详情请咨询插件作者。

47240
领券