前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Selenium + C# 实现模拟百度贴吧签到 1

Selenium + C# 实现模拟百度贴吧签到 1

作者头像
happlyfox
发布2018-10-31 14:52:52
1.1K0
发布2018-10-31 14:52:52
举报
文章被收录于专栏:技术开源分享

代码直通车 Github FoxCrawler项目下的SeleniumClawer解决方案

工具介绍

Selenium:是一个自动化测试工具,封装了很多WebDriver用于跟浏览器内核通讯,我用开发语言来调用它实现PhantomJS的自动化操作。它的下载页面里有很多东西,我们只需要Selenium Client,它支持了很多语言(C#、JAVA、Ruby、Python、NodeJS),按自己所学语言下载即可。

下载地址:http://docs.seleniumhq.org/download/

Nuget 使用

image.png

Selenium的好处 Selenuim的好处是显而易见的,当我们爬取网站信息时候,难免会碰到异步加载,数据延时绑定,数据接口定位难,加密信息解码难等问题。其实最终数据都会完整的显示在界面上,既然数据能够显示出来,使用Selenium操控WebDriver进行模拟浏览器行为(点击,切换,移动)等等事件,等待数据显示,然后使用选择器(Id,Class,XPath等)进行爬取,这是一种符合人习惯的编程方式。当然我也不是说其他的方式不好,只是在同等时间的情况下,这种方式效率更高,耗时更快,可靠性也更高。

下面使用Selenium进行一个简单的百度贴吧一键签到功能编码

项目创建,环境配置

打开Vs,新建控制台项目,使用Nuget获取最新Selenium的C#库,然后根据自己机型安装的浏览器选择WebDirver(有点类似运行时打开的模拟浏览器,不过时单独的一个.exe文件,首先你电脑要安装这个浏览器),我以自己的电脑Chrome浏览器为例子,所以我Nuget下载一个

chrome.webdriver.png

下载完成后在项目根目录的packages文件夹中找到对应内容 根据系统类型,系统是32还是64自行选择

路径.png

复制.exe文件到项目Bin文件夹下即可,环境配置完成

先来一下简单例子

在完成一键签到功能之前,我们先来完成一个简单的例子,这样能让大家对这种方式有一个基本的了解 我的例子选取的是某学校的通知公告数据爬取,进行一般爬虫和Selenium爬取的区别

爬取地址 http://www.jit.edu.cn/myNews_list_out.aspx?infotype=1

截图.png

普通方式爬取

我们首先要分析如何获取数据,当我们点击下一页的时候,我们发现页面整体刷新,且地址栏没有发生变化,通过分析Respons信息我们发现IIS字样,这样可以推定使用的技术是.net webform 自带的gridview服务端控件,这种方式自带了加密验证,破解的方式网上有,就是要获取每次页面生成的加密码,然后带上其他参数向后台重新发起请求。 缺点: 如果使用这种方式,当我们碰到不同的问题,需要根据不同的问题寻找解决方案,测试可行然后再进行编码,要花多的时间在一个一个没有接触过的问题身上。

Selenium 模拟爬取

这种方式就相对简单,也很好理解。编码的逻辑就是如下 1、打开网页 2、找到下一页按钮 3、模拟点击 4、数据获取 这样的方式就和我们使用浏览器操作习惯一置,逻辑也更加清楚。

接下去我就基于这一种方法,对代码进行说明

打开网页

代码语言:javascript
复制
            var docHtml = new HtmlDocument();
            var driver = new ChromeDriver();
            driver.Navigate().GoToUrl("http://www.jit.edu.cn/myNews_list_out.aspx?infotype=1");

业务逻辑 代码简单明了,爬取当页数据,然后找到下一页按扭,如果存在点击,如何不存在,退出循环

代码语言:javascript
复制
            bool nextpage = true;
            do
            {
                ReadOnlyCollection<IWebElement> newsNodes =
                driver.FindElements(By.XPath("//*[@id=\"table_list\"]/li/a")); //获取li内容
                GetNewList(newsNodes);//获得新闻内容
                docHtml.LoadHtml(driver.PageSource);
                //找到下一页按钮
                HtmlNode node = docHtml.GetElementbyId("nextpage");
                IWebElement element = null;
                if (node != null)
                {
                    element = driver.FindElementById("nextpage");
                }
                else
                {
                    nextpage = false;
                }

                //如果存在下一页按钮,模拟点击
                if (nextpage)
                {
                    element.Click();
                }
            } while (nextpage);

获取新闻内容

代码语言:javascript
复制
    private static List<NewInfo> GetNewList(ReadOnlyCollection<IWebElement> newsNodes)
        {
            List<NewInfo> newInfoList = new List<NewInfo>();
            foreach (var news in newsNodes)
            {
                newInfoList.Add(new NewInfo()
                {
                    Url = news.GetAttribute("href"),
                    Title = news.Text
                });
                Console.WriteLine($"{news.Text} {news.GetAttribute("href")}");
            }
            return newInfoList;
        }

好处: 1、代码简单明了 2、逻辑清晰 3、后期维护方便

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.08.07 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 项目创建,环境配置
  • 先来一下简单例子
  • 普通方式爬取
    • Selenium 模拟爬取
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档