首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

JSoup javax.net.ssl.SSLHandshakeException:找不到与<url>匹配的主题备用DNS名称

JSoup是一个Java库,用于解析HTML文档并提供类似于jQuery的API来操作文档。它可以从URL、文件或字符串中加载HTML,并提供强大的选择器来定位和提取所需的数据。

javax.net.ssl.SSLHandshakeException是一个Java异常,表示在SSL握手过程中发生了错误。它通常是由于SSL证书验证失败或无法建立安全连接而引发的。

在处理这个异常时,可以采取以下步骤:

  1. 检查URL是否正确:确保URL的格式正确,并且可以通过浏览器访问。
  2. 检查SSL证书:如果URL使用了HTTPS协议,可能是由于SSL证书验证失败导致的异常。可以尝试忽略证书验证,但这不是一个安全的做法。更好的解决方案是使用合法的SSL证书,可以通过腾讯云SSL证书服务来获取合法的SSL证书。
  3. 检查网络连接:确保网络连接正常,没有任何防火墙或代理服务器阻止了与目标URL的连接。
  4. 更新JSoup版本:如果使用的是旧版本的JSoup,尝试更新到最新版本,以确保它与最新的SSL协议和加密算法兼容。
  5. 调整安全策略:在某些情况下,可能需要调整Java的安全策略文件,以允许与目标URL建立安全连接。具体的调整方法可以参考腾讯云的安全策略配置指南。

总结: JSoup是一个用于解析HTML文档的Java库,javax.net.ssl.SSLHandshakeException是一个Java异常,表示SSL握手过程中发生了错误。在处理这个异常时,需要检查URL的正确性、SSL证书、网络连接以及更新JSoup版本等。为了确保安全连接,建议使用合法的SSL证书,并根据需要调整Java的安全策略。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

Scala 强大精简语法(示例)

Scala 是面向对象函数编程语言,最终编译成 java 字节码,运行在 jvm 上。如果要比较,最多是和 java 对比,Scala 相对而言补全了 java 许多弱点。...例如:java 里接口继承,在 Scala 里是特质(trait),弥补 java 中接口尴尬之处,特质里方法可实现也可不实现。...同时还有在并发编程方面也有不错竞争手段,Scala 将并发结果变得更加可控,同时模式匹配、提取器这些数据集操作都给操作带来了很大方便,笔者是 Scala 新手,这只是一些粗糙理解(如发现错误欢迎留言...本文使用了 Scala future、promise、数据集、implict、jsoup 一些相关操作,从而特意选做了一个功能主题:提取淘宝目录分类名,流程为:获取 tb 目录 id->取得 id 下所有的子分类...Failure, Success} def categoryGet(): Unit = { var listId = mutable.Map[String, String]() //用来存目录名称目录

1.8K00

记一次jsoup使用

Jsoup是用于解析HTML,就类似XML解析器用于解析XML。Jsoup它解析HTML成为真实世界HTML。它与jquery选择器语法非常相似,并且非常灵活容易使用以获得所需结果。...2个以上p元素 :eq(n): 查找哪些元素同级索引值n相等,比如:form input:eq(1)表示包含一个input标签Form元素 :has(seletor): 查找匹配选择器包含元素元素...,比如:div:has(p)表示哪些div包含了p元素 :not(selector): 查找选择器不匹配元素,比如:div:not(.logo) 表示不包含 class="logo" 元素所有...:matches(regex): 查找哪些元素文本匹配指定正则表达式,比如:div:matches((?...i)login) :matchesOwn(regex): 查找自身包含文本匹配指定正则表达式元素 注意:上述伪选择器索引是从0开始,也就是 提取给定URL链接 Document

1.5K30

Scala中如何使用Jsoup库处理HTML文档?

Scala优势Scala是一种多范式编程语言,具有函数式编程和面向对象编程特点,同时也能够Java语言完美兼容。...它拥有强大类型推断、高阶函数、模式匹配等特性,使得代码更加简洁、灵活和易于维护。由于Scala可以无缝地Java集成,因此可以轻松地利用Java生态系统中丰富工具和库。...Jsoup强大功能Jsoup是一个开源Java HTML解析库,它提供了一套简单而强大API,能够方便地从HTML文档中提取所需信息。...主要分为以下几个步骤:解析URL,获取京东网页HTML代码;解决京东安全界面跳转问题;获取每一组商品数据HTML元素;解析每一组商品数据,获取具体商品信息,如名称、价格、链接等。...: 可以根据自己需求,定制化选择需要爬取数据,例如商品名称、价格、销量等。

8110

jsoup爬虫工具简单使用

jsoup爬虫工具使用: *需要jar包 --> Jsoup* 解决方案: 1.通过url 获得doucment对象, 2.调用select()等方法获得Elements对象, 3.调用.text...以下是第一步三种方法,其中第一种是jsoup提供方法,二三两种是java自带方法, 只是在方法结尾处用到了jsoupJsoup.parse()方法将String类型对象转化为Document...1.1 public Document getDoc (String url){ try { Document doc = Jsoup.connect(url)...(2)表示哪些div中有包含2个以上p元素 • :eq(n): 查找哪些元素同级索引值n相等,比如:form input:eq(1)表示包含一个input标签Form元素 • :has...(seletor): 查找匹配选择器包含元素元素,比如:div:has(p)表示哪些div包含了p元素 • :not(selector): 查找选择器不匹配元素,比如: div:not(.

1.7K40

使用Java进行网页抓取

它可以模拟浏览器关键方面,例如从页面中获取特定元素、单击这些元素等。正如这个库名称所暗示那样,它通常用于单元测试。这是一种模拟浏览器以进行测试方法。 HtmlUnit也可用于网页抓取。...此函数连接URL并返回一个Document.以下是获取页面HTML方法: Document doc = Jsoup.connect("https://en.wikipedia.org/wiki/Jsoup...()方法,该方法会返回第一个匹配项。...为了使这个Java网络爬虫教程更加真实,让我们打印页面中所有章节名称、读者名称和阅读持续时间。第一步是确定可以选择所有行选择器。...如果您了解Java,那么使用这些Java库将花费很少时间。 Q:网络抓取合法吗? A:这是一个复杂问题,需要详细检查。我们在“网络抓取合法吗?”中深入探讨了这个主题。我们强烈建议您阅读下这篇文章。

3.9K00

Jsoup-爬取实战

文章目录 Jsoup 导入依赖 获取信息 数据筛选 Jsoup ---- Jsoup 是一款Java HTML解析器,可直接解析某个URL地址、HTML文本内容。...搜索jsoup为例,请求该URL,查看你所需信息标签id或class,用Jsoup返回浏览器Document对象,然后可以用js方法获取对象和操作。...q=jsoup&t=&u="; //解析网页(Jsoup返回浏览器Document对象,可以使用Js方法) Document document=Jsoup.parse(...比如:a ns|tag: 通过标签在命名空间查找元素,比如:可以用 fb|name 语法来查找 fb:name 元素 #id: 通过ID查找元素,比如:#logo .class: 通过class名称查找元素..., el:多个选择器组合,查找匹配任一选择器唯一元素,例如:div.masthead, div.logo 总结爬取数据思路:获取请求、返回页面信息、筛选所需数据。

2.2K30

万网皆可爬-爬虫实战系列之-爬取高分电影拯救无聊

缘起 疫情期间大家在家都无聊透顶,公司同事吧有人发起了推荐电影帖子,贴主收集了所有人回复整理成了豆瓣豆列。刚好最近在写爬虫系列文章,就用这个作为具体案例来介绍下另一个神器jsoup使用吧。...Jsoup是什么 jsoup 是一款Java HTML解析器,可直接解析某个URL地址、HTML文本内容。...Jsoup使用跟JQuery一样语法进行节点操作,具体JQuery选择器语法可以参考 https://www.cnblogs.com/zhangziqiu/archive/2009/05/03/jQuery-Learn...pattern.matcher(text).matches()) { System.out.println(href + " " + text); } } 这样就可以获取所有的页面链接了,可以存起来备用...href = urlDecode.split("=")[1]; } System.out.println(text + " " + href); } } 获取详情 我们需要数据包含电影名称

19610

Xpath、Jsoup、Xsoup(我Java爬虫之二)

"; Document doc = Jsoup.parse(html); 从URL加载一个Document Document doc = Jsoup.connect(...= Jsoup.parse(new URL("https://www.qq.com"), 10000); 从一个文件中加载一个dom File input = new File("/tmp/input.html...)小于n,比如:td:lt(3) 表示小于三列元素 :gt(n):查找哪些元素同级索引值大于n,比如: div p:gt(2)表示哪些div中有包含2个以上p元素 :eq(n): 查找哪些元素同级索引值...:not(selector): 查找选择器不匹配元素,比如: div:not(.logo) 表示不包含 class=logo 元素所有 div 列表 :contains(text): 查找包含给定文本元素...,搜索不区分大不写,比如: p:contains(jsoup) :containsOwn(text): 查找直接包含给定文本元素 :matches(regex): 查找哪些元素文本匹配指定正则表达式

1.2K20

Jsoup(一)Jsoup详解(官方)

一、Jsoup概述 1.1、简介     jsoup 是一款Java HTML解析器,可直接解析某个URL地址、HTML文本内容。...1.2、Jsoup主要功能     1)从一个URL,文件或字符串中解析HTML     2)使用DOM或CSS选择器来查找、取出数据     3)可操作HTML元素、属性、文本     注意:jsoup...p:gt(2)表示哪些div中有包含2个以上p元素       :eq(n): 查找哪些元素同级索引值n相等,比如:form input:eq(1)表示包含一个input标签Form元素       ...:has(seletor): 查找匹配选择器包含元素元素,比如:div:has(p)表示哪些div包含了p元素       :not(selector): 查找选择器不匹配元素,比如: div:not...", url); Document doc = Jsoup.connect(url).get(); Elements links = doc.select("a[href

8.4K50

Jsoup选择器语法

站在巨人肩膀上才能看更远 jsoup 是一款基于Java HTML解析器,可直接解析某个URL地址或HTML文本内容。...jsoup强大在于它对文档元素检索,Select方法将返回一个Elements集合,并提供一组方法来抽取和处理结果,要掌握Jsoup首先要熟悉它选择器语法。...)小于n,比如:td:lt(3) 表示小于三列元素 :gt(n):查找哪些元素同级索引值大于n,比如: div p:gt(2)表示哪些div中有包含2个以上p元素 :eq(n): 查找哪些元素同级索引值...:not(selector): 查找选择器不匹配元素,比如: div:not(.logo) 表示不包含 class=logo 元素所有 div 列表 :contains(text): 查找包含给定文本元素...,搜索不区分大不写,比如: p:contains(jsoup) :containsOwn(text): 查找直接包含给定文本元素 :matches(regex): 查找哪些元素文本匹配指定正则表达式

1.6K30

子域名枚举艺术深度剖析

五、SAN SAN(Subject Alternate Name)主题备用名称主题备用名称证书简单来说,在需要多个域名,将其用于各项服务时,可使用SAN证书。...允许在安全证书中使用subjectAltName字段将多种值证书关联,这些值被称为主题备用名称名称可包括:IP地址、DNS名称等。 ?...主动枚举 一、字典枚举 除了知名度很高layer,推荐一款快速基于浏览器枚举子域名神器。 传送门 二、DNS区域传送 这个就不用多说了,很经典一个漏洞。...DNSSEC通过向现有DNS记录添加签名来增强安全性,这些签名常见记录类型一起存储。由于加密签名,DNSSEC处理不存在域时存在问题,可以区域遍历。...四、DNS记录 CNAME 别名记录,把一个域名解析到另一个域名 SPF SPF是通过域名TXT记录来进行设置,SPF记录列出了所有被授权代表域名发送电子邮件主机 CNAME ?

1.6K20

HTTPS调试中自签名证书错误ERR_CERT_COMMON_NAME_INVALID解决方法

1、问题现象 使用自签名证书后,chrome报错此服务器无法证实它就是 www.webrtc.cn 它安全证书没有指定主题备用名称。这可能是因为某项配置有误或某个攻击者拦截了您连接。...错误码是NET::ERR_CERT_COMMON_NAME_INVALID: 如下图所示: 2、问题原因 生成证书时候没有加上备用名称字段,目前浏览器校验证书都需要这个字段。...3、解决方法 生成证书时候需要添加上备用名称(subjectAltName)扩展字段。....1 = *.dyxmq.cn DNS.2 = *.maqian.xin DNS.3 = *.maqian.io DNS.4 = *.maqian.co DNS.5 = *.maqian.cn 在DNS.x...地方填写上自己域名,如果多个域名,可以按照规律DNS.1/DNS.2/DNS.3/...来添加,同时还支持IP地址形式,填入IP.1 = x.x.x.x就可以了。

3.5K30

网络爬虫 | Java 实现 AI人工智能技术 - 网络爬虫功能

聚焦爬虫工作流程较为复杂,需要根据一定网页分析算法过滤主题无关链接,保留有用链接并将其放入等待抓取URL队列。...网络爬虫基本工作流程如下: 1.首先选取一部分精心挑选种子URL; 2.将这些URL放入待抓取URL队列; 3.从待抓取URL队列中取出待抓取在URL,解析DNS,并且得到主机ip...URL,下载文件并保存在本地 */ public class FunctionUtils { /** * 匹配超链接正则表达式 */ private static...5:如果想获取页面内,具体相关内容,需要将html文件中数据进行解析为Document,使用Jsoup技术进行解析即可,示例如下,增加如下代码: ...java.io.File; import java.io.IOException; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import

5.3K50

java使用Jsoup精准爬取招聘信息

前言 最近探究搜索引擎接触到爬虫,想做点什么有意思事情,除了前面取了点CSDN文章外,今天来爬一爬拉勾网职位信息 认识JSOUP  jsoup 是一款Java HTML解析器,可直接解析某个...URL地址、HTML文本内容。...它提供了一套非常省力API,可通过DOM,CSS以及类似于jQuery操作方法来取出和操作数据。 jsoup主要功能如下: 1. 从一个URL,文件或字符串中解析HTML; 2....:not(selector): 查找选择器不匹配元素,比如: div:not(.logo) 表示不包含 class=logo 元素所有 div 列表 :contains(text): 查找包含给定文本元素...,搜索不区分大不写,比如: p:contains(jsoup) :containsOwn(text): 查找直接包含给定文本元素 :matches(regex): 查找哪些元素文本匹配指定正则表达式

17340

Jsoup 基础知识

说明 parse(String html, String baseUri) 这方法能够将输入HTML解析为一个新文档 (Document),参数 baseUri 是用来将相对 URL 转成绝对URL...你可以使用下面解决方法: 方法 使用 Jsoup.connect(String url)方法: Document doc = Jsoup.connect("http://example.com/")....:not(selector): 查找选择器不匹配元素,比如: div:not(.logo) 表示不包含 class=logo 元素所有 div 列表 :contains(text): 查找包含给定文本元素...,搜索不区分大不写,比如: p:contains(jsoup) :containsOwn(text): 查找直接包含给定文本元素 :matches(regex): 查找哪些元素文本匹配指定正则表达式...document = Jsoup.parse(new URL(url), 1000); // 使用标签选择器,获取 title 标签中内容 Element element

3.7K10

XML学习笔记

在XML中,拥有单个标记而没有匹配结束标记元素必须用一个/ 字符作为结尾。这样分析器就知道不用查找结束标记了。 4. 在XML中,属性值必须分装在引号中。在HTML中,引号是可用可不用。 ...> 加上了这条语句页面就会用于展示而浏览器不再显示XML树状结构 3.标签 规则: 名称可以包含字母、数字以及其他字符 名称不能以数字或者标点符号开始 名称不能以字母 xml(或者 XML、Xml...1.数据类型 PCDATA PCDATA 意思是被解析字符数据(parsed character data)。 可把字符数据想象为 XML 元素开始标签结束标签之间文本。...Jsoup:是一款JAVAHTML解析器,可直接解析URL地址,HTML文本内容 PULL:Android操作系统内置解析器,基于sax Jsoup学习https://jsoup.org/download...其中有3个重载方法,解析文件,解析字符串,解析URL,写爬虫时候比较方便 import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import

61100

Java爬虫之JSoup使用教程

jsoup实现WHATWG HTML5规范,并将HTML解析为现代浏览器相同DOM。 从URL,文件或字符串中提取并解析HTML。 查找和提取数据,使用DOM遍历或CSS选择器。...Jsoup一些重要方法如下: 方法 描述 static Connection connect(String url) 创建并返回URL连接。...3. org.jsoup.nodes.Element类 HTML元素是由标签名称,属性和子节点组成。 使用Element类,您可以提取数据,遍历节点和操作HTML。...DOM getter是上下文:在父文档上调用,他们在文档下找到匹配元素; 他们在一个子元素上调用了那个孩子下面的元素。通过这种方式,您可以了解所需数据。...使用Element.select(String selector)和Elements.select(String selector)方法 jsoup元素支持CSS(或jquery)之类选择器语法来查找匹配元素

9.9K20

我用java爬了一下CSDN,发现了这些秘密。。。

一、爬虫原理 爬虫就是去请求某个url,然后将响应页面进行解析,将解析到数据保存,同时解析出当前页面的url,继续进行爬取,一直循环下去,爬取当前网站内容。...2.3 爬取思路 通过爬取首页,解析出所有a标签 筛选a标签,根据博客地址格式,匹配到所有的博客地址 爬取博客地址,解析id=asideCustom 如果第3步可以解析出来,则说明该博主设置了自定义信息...三、编写爬虫 根据上面的分析我们需要两个工具包,一个是httpclient用于网络请求,另一个是用来解析DOM元素jsoup。...-- 添加jsoup支持 --> org.jsoup jsoup...csdn首页推荐数据是分页拉取,爬虫只能爬取到第一页数据,也就是25条 有些博主虽然设置了自定义信息,但是并不是公众号 有些博主虽然没有设置自定义信息,但是在简介或者其他地方留了公众号名称 不过这些都没关系

45820
领券