腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
使用
BeautifulSoup
解析
标记
/
结果
中
的
数据
python
、
parsing
、
beautifulsoup
所以我有下面的代码来
解析
链接和标题,它工作得很好,但我只想
解析
一季。从下面的链接/示例
中
可以看到,季节
数据
包含在标签
中
,因此搜索标签本身显然不起作用。我如何一次过滤掉每一季?任何帮助都将不胜感激。'], 'is_playable': True, return items 来自要
解析
的<
浏览 43
提问于2020-07-13
得票数 0
1
回答
如何
使用
python转换html
数据
python
、
extract
我正在寻找一条建议,因为我是python
的
新手。假设我有多个
数据
块,如下所示:有时br
的
数量是不同
的
,并且对于所有块来说不是恒定
的
。我
的
目的是从
浏览 0
提问于2013-06-10
得票数 0
回答已采纳
4
回答
漂亮
的
汤类html.parser错误
python
、
beautifulsoup
我正在尝试
使用
BeautifulSoup
来
解析
来自网址
的
超文本
标记
语言
数据
。然而,我一直收到警告: “没有明确指定
解析
器,所以我
使用
了这个系统可用
的
最好
的
超文本
标记
语言
解析
器("html.parser")。这通常不是问题,但是如果你在另一个系统上运行这段代码,或者在不同
的
虚拟环境
中
运行,它可能会
使用
不同<em
浏览 0
提问于2016-03-24
得票数 0
1
回答
解析
嵌套在XML文件
中
的
超文本
标记
语言(
使用
BeautifulSoup
)
python
、
html
、
xml
、
parsing
、
beautifulsoup
我正在尝试
解析
description字段
中
包含超文本
标记
语言
的
XML文件
中
的
一些
数据
。:soup =
BeautifulSoup
(myfile, 'html.parser') descContent = soup.find_all('description我不确定哪里出错了;当我枚举descContent
中
的
条目时,它显示了我正
浏览 3
提问于2018-05-20
得票数 1
1
回答
如何
使用
python爬虫到达<span>标签
中
的
dipper?
python
、
html
、
web-crawler
body
标记
具有<span>
标记
。在span标签
中
还有许多其他div。我想试一试,但是当我尝试这个密码时:from urllib.request import urlopen data = urlopen(url) soup =
BeautifulSoup
(data, 'htm
浏览 1
提问于2016-04-26
得票数 1
1
回答
BeautifulSoup
html.parser不理解img标签
html
、
image
、
beautifulsoup
问题:当
使用
BeautifulSoup
时,
BeautifulSoup
没有将img
标记
理解为自关闭
BeautifulSoup
('<img srcspan>kjrn</span>', 'html.parser')<img alt="" class="" src="" title=&qu
浏览 0
提问于2017-03-08
得票数 2
回答已采纳
3
回答
从HTML
中
读取头内容
python
、
html
、
html-parsing
我需要在python
的
小脚本。需要读取web文件
中
的
自定义块。 #!
浏览 1
提问于2010-12-20
得票数 2
回答已采纳
1
回答
BeautifulSoup
不
解析
过去
的
标题标签
python
、
beautifulsoup
我正试图
解析
一个页面 我在
BeautifulSoup
3.2.0
中
使用
python2.6。为什么我
的
汤没有正确
解析
页面?
浏览 2
提问于2014-10-15
得票数 0
回答已采纳
2
回答
当网络抓取时,我们把"html.parser“
的
论点放在哪里?
python-3.x
、
web-scraping
、
beautifulsoup
、
python-requests
请看下面的代码片段from bs4 import
BeautifulSoup
html = requests.get(url, "html.parser")html2 = requests.get(url)哪种
浏览 2
提问于2020-08-11
得票数 1
回答已采纳
3
回答
在python脚本之后没有打印,没有错误
python
、
html
、
beautifulsoup
没有错误,只是没有打印
结果
。它应该从网址上打印标题。脚本运行,但在
解析
balancedheadlines时什么也不返回。我可以交换我寻找
的
标记
p并返回
数据
,但我相信我没有正确地通过
标记
来检索标题。import requestsr = requests.get(url) soup=
Beautiful
浏览 0
提问于2019-02-24
得票数 0
回答已采纳
2
回答
美丽
的
Soup find_all()返回奇怪
的
标签而不是
结果
python
、
xml
、
beautifulsoup
我正在
使用
Beautiful从XML文件
中
获取一些信息,如下所示:<link>example.com/rss</link>这是我目前正试图读取
的
整个XML文件,用于测试目的。当我尝试
使用
find_all('link')时,它返回一个由以下内容组成
的
列表: [ <l
浏览 5
提问于2014-10-05
得票数 2
回答已采纳
1
回答
BeautifulSoup
连续块
python
、
html
、
beautifulsoup
、
web-crawler
我
使用
BeautifulSoup
来
解析
爬行
的
html
数据
,我所看到
的
模式是....<p></p>非常感谢帮助您了解如何在
beautifulSoup</
浏览 3
提问于2015-04-07
得票数 1
回答已采纳
1
回答
BeautifulSoup
4缺失标签
python
、
html
、
beautifulsoup
、
html-parsing
我在Anaconda
的
发行版中
使用
BeautifulSoup
4作为bs4。如果我错了,请纠正我--我理解
BeautifulSoup
是用来将格式不正确
的
HTML转换成格式良好
的
HTML
的
库。但是,当我将HTML赋值给它
的
构造函数时,我损失了一半以上
的
字符。它不应该只是修复HTML而不是清理它吗?在
中
,它不是很好
的
描述。这是代码: from bs4 import
BeautifulSoup</
浏览 2
提问于2015-03-12
得票数 3
回答已采纳
1
回答
在
BeautifulSoup
4
中
将标签内容提取为文本(相当于QUOTE_TAGS)
python
、
web-scraping
、
beautifulsoup
HTML3有一个很好
的
特性,那就是它不会试图将<textarea>标签
的
内容解释为
BeautifulSoup
--它会将其引用为文本。通过修改QUOTE_TAGS属性,可以将此行为应用于其他
标记
。下面的展示了它是如何有用
的
。 在
BeautifulSoup
4
中
,没有QUOTE_TAGS属性,我认为如果不自己创建html.parser子类,就无法获得相同
的
功能。我是不是遗漏了什么?您将如何
使用
BS4解决上面链接
的</
浏览 1
提问于2013-05-01
得票数 1
1
回答
删除注释
标记
,但不满足于
BeautifulSoup
python
、
html
、
beautifulsoup
我正在
使用
BeautifulSoup
练习一些网络抓取,特别是我正在查看NFL
的
游戏
数据
,更具体
的
说是这个页面上
的
"Team“表()。</table> </div>本质上,呈现到页面的HTML作为注释存储在HTML
中
,因此我可以找到表
的
div,但是
BeautifulSoup
不能
解析
表本身,因
浏览 1
提问于2018-10-18
得票数 1
回答已采纳
3
回答
BeautifulSoup
find_all只返回前50个
标记
python
、
web-scraping
、
beautifulsoup
、
html-parsing
我试图用网站
解析
BeautifulSoup
的
html
数据
,但奇怪
的
是,它只返回它找到
的
前50个
标记
。html=urllib.request.urlopen(url).read() soup = <
浏览 2
提问于2022-07-17
得票数 2
6
回答
我应该
使用
什么语言/工具来进行HTML
解析
?
html
、
screen-scraping
、
html-parsing
我有几个网站,我想从和以往
的
经验基础上提取
数据
,这并不像听起来那么容易。为什么?仅仅因为我必须
解析
的
HTML页面没有正确
的
格式化(缺少结束
标记
等等)。考虑到我对可以
使用
的
技术、语言或工具没有任何限制,您有什么建议可以轻松地
解析
和提取页面
中
的
数据
?我尝试过HTML、
BeautifulSoup
,甚至这些工具也不完美(HTML是错误
的
,而
Bea
浏览 1
提问于2009-02-24
得票数 6
回答已采纳
1
回答
解析
源代码(Python)方法:漂亮
的
汤,lxml,html5lib
的
区别?
python
、
parsing
、
beautifulsoup
、
lxml
我有一个很大
的
HTML源代码,我想要
解析
(大约200,000)行,并且我相当确定在整个过程中都有一些糟糕
的
格式。我一直在研究一些
解析
器,似乎Beautiful Soup,lxml,html5lib是最受欢迎
的
。我对Beautiful Soup文档、和像
BeautifulSoup
(markup,"lxml")或
BeautifulSoup
(markup,html5lib)这样
的
命令感到有点困惑。在这种情况下,它是否同时
使用</e
浏览 0
提问于2012-06-08
得票数 1
2
回答
如何
使用
ncbi nih
解析
HTML?
python
、
html
、
parsing
、
web-crawler
import requestsimport pandas as pdfasta_html.raise_for_status() prin
浏览 11
提问于2022-10-07
得票数 -2
1
回答
使用
BeautifulSoup
找不到超过某一点
的
孩子
python
、
web-scraping
、
beautifulsoup
我目前正试图在以下网页上
解析
不同
的
配置: parsed =
BeautifulSoup
(requests.get('https://nvd.nist.gov/vuln/detail/CVE-2020-3661').content我已经尝试了
BeautifulSoup
文档页面<e
浏览 1
提问于2020-07-04
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python3使用BeautifulSoup解析百度关键词搜索结果
享学课堂浅谈Python3中BeautifulSoup的使用方法
R中数据的标记和赋值演示(一)
R中数据的标记和赋值演示(二)
EXCEL中这个命令,可以快速标记,表格中的特殊数据!
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券