腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
要
解析
BeautifulSoup
以
检索
此
数字
的
标记
python
、
web-scraping
、
beautifulsoup
我试图识别这个HTML代码
的
标签,以便通过Beautiful Soup对其进行
解析
,并抓取一个
数字
,但是我无法识别使用哪个标签来获得这个
数字
。style="font-size:88px; color:#345C99;position:relative;top:56px;left:calc(6% - 46px)">6</div> 我正在尝试获取
此
元素>6<中
的
6
浏览 18
提问于2021-08-16
得票数 0
1
回答
Python
BeautifulSoup
给出了不同
的
结果
python
、
xml
、
python-2.7
、
parsing
、
beautifulsoup
我正在尝试使用xml
解析
一个
BeautifulSoup
文件。考虑一个sampleinpt xml文件如下:<DOCNO>1</DOCNO> ....此文件由130个<DOC>
标记
组成。但是,当我试图使用
BeautifulSoup
的
findAll函数
解析
它时,它会
检索
任意数量
的
标记
(通常在15-25之间),但从不
检索
130个
标记
。
浏览 0
提问于2015-06-06
得票数 1
回答已采纳
1
回答
(Python3OS Win7)列表没有显示预期
的
输出
python
、
list
、
beautifulsoup
、
html-parsing
输入URL from urllib.request import urlopen from bs4 import
BeautifulSoup</e
浏览 2
提问于2017-08-30
得票数 0
1
回答
尝试使用美汤访问[‘KeyError’]时
的
样式
python
、
beautifulsoup
我尝试使用Beautiful Soup4访问页面上
的
DIV元素
的
样式,但我一直收到一个关键错误。我知道样式肯定在那里,因为我可以使用浏览器中
的
检查器检查它们,并且我可以看到带有"header large border“类
的
DIV
的
样式。(见附图) 这是我
的
代码; url = 'https://www.themoviedb.org/movie/595743-sas-red-notice' response = reque
浏览 31
提问于2021-09-19
得票数 1
4
回答
漂亮
的
汤类html.parser错误
python
、
beautifulsoup
我正在尝试使用
BeautifulSoup
来
解析
来自网址
的
超文本
标记
语言数据。然而,我一直收到警告: “没有明确指定
解析
器,所以我使用了这个系统可用
的
最好
的
超文本
标记
语言
解析
器("html.parser")。这通常不是问题,但是如果你在另一个系统上运行这段代码,或者在不同
的
虚拟环境中运行,它可能会使用不同
的
解析
器和不同
的
行为。
要
浏览 0
提问于2016-03-24
得票数 0
2
回答
使用Python中
的
优美汤迭代xml中
的
非href链接并
检索
特定信息
python
、
html
、
xml
、
web-scraping
、
beautifulsoup
我试图从上
的
所有单独链接中提取联系信息(地址、公司名称)。通常,我知道如何在典型
的
html源代码中
检索
href列表,但由于这是一个xml,所以我只能分离出以下格式
的
链接:到目前为止,我
的
代码给了我所有的公司链接,但我不知道如何让它通过每一个,并提取相关
的
信息from bs4 import
BeautifulSoup
import re companyname = []
浏览 5
提问于2013-12-18
得票数 1
回答已采纳
1
回答
Python/lxml:如何捕获HTML表中
的
行?
python
、
html-table
、
html-parsing
、
lxml
对于我
的
股票筛选工具,我必须在脚本中从
BeautifulSoup
切换到lxml。在我
的
Python脚本下载了我需要处理
的
网页之后,
BeautifulSoup
能够正确地
解析
它们,但是过程太慢了。
解析
一只股票
的
资产负债表、损益表和现金流量表只需要
BeautifulSoup
大约10秒,考虑到我
的
脚本有5000多只股票
要
分析,这是不可接受
的
慢。根据一些基准测试(),lxml比
Bea
浏览 0
提问于2012-11-29
得票数 0
1
回答
使用ajax json
解析
html
python
、
json
、
screen-scraping
、
html-parsing
、
web-scraping
我有这样
的
文件需要用Python来
解析
(从分解):对于这项任务,您有没有比regex和eval()更好
的
建议? 页面示例:
浏览 3
提问于2010-08-26
得票数 0
回答已采纳
1
回答
尽管我在与代码相同
的
文件夹中打开了该文件,但它无法执行
python
对于所有人来说,这是一个小小
的
免责声明,这是我
的
第一种编程语言,我仍然在习惯它,所以任何建议都是推荐
的
。在本作业中,您将编写一个类似于
的
BeautifulSoup
程序。该程序将使用urllib从下面的数据文件中读取HTML,并
解析
数据,提取
数字
并计算文件中
数字
的
总和。 我们为这个任务提供了两个文件。示例数据: (Sum=2553)实际数据: (Sum
以
19结尾)您不需要将这些文件
浏览 1
提问于2018-05-22
得票数 0
1
回答
美丽
的
汤findAll找不到所有的信息
python
、
web-scraping
我正在尝试使用
BeautifulSoup
库
解析
一个HTML。但是,在某个点之后,我无法
检索
嵌套
的
div/类。当使用"findAll“函数时,它不会返回所有这些
标记
。这个特定
的
站点正在使用Bootstrap,而我想要
检索
的
信息在手风琴组件中。
BeautifulSoup
是否与Bootstrap冲突,还是我没有正确地
解析
站点?我想知道商店
的
位置,比如地址,邮政编码。我使用
的</
浏览 8
提问于2022-02-26
得票数 -1
2
回答
用
BeautifulSoup
或Regex
解析
无效锚
标记
python
、
regex
、
parsing
、
html-parsing
、
beautifulsoup
我希望
解析
包含html锚
标记
的
原始文档,但不幸
的
是它包含无效
标记
,如:我知道href值可能不是一个实际
的
链接,但让我们把它留在这里吧现在我需要
的
是
检索
href值'A 4"drive bay'和链接文本'some text here'。 我正在使用pyth
浏览 4
提问于2012-05-07
得票数 0
2
回答
是否有可能用python抓取html
的
伪元素中包含
的
数据?
python
、
html
、
beautifulsoup
、
python-requests
我一直试图开发一个刮擦代码,从意大利梦幻足球网站上
检索
表格。为此,我想
解析
使用python、
BeautifulSoup
和熊猫
的
html。但是,当我用
BeautifulSoup
解析
html代码时,我找不到任何表:>>> # import libraries >>> from bs4,我了解到感兴趣
的
表可能包含在伪元素中,而伪元素并没有出现在请
浏览 5
提问于2019-12-18
得票数 1
回答已采纳
1
回答
有什么更简单
的
方法来刮这个描述吗?
python
、
selenium
、
beautifulsoup
、
selenium-chromedriver
我正在尝试刮下面的描述(
标记
为红色)。目前,我
的
代码确实刮掉了这种描述,但是看起来相当乏味,有些html
标记
会被刮掉。有什么更简单
的
办法吗?given_link = "https://www.girodisc.com/Front-Rotors-for-Audi-Lamborghini_p_6541.html"except Exception as e: print(
浏览 4
提问于2022-03-07
得票数 0
3
回答
BeautifulSoup
:只
解析
页面的一部分
html-parsing
、
beautifulsoup
Link1</a></p><p>One more paragraph</p>我将此字符串传递给
BeautifulSoup
:# add rel="nofollow"
浏览 5
提问于2012-06-30
得票数 2
回答已采纳
2
回答
如何从GitHub接口获取提交
的
所有
标记
github-api
如何从GitHub接口获取提交
的
所有
标记
。 问题:我确实有一个文件。我从API中
检索
了文件
的
提交。现在,我需要知道包含特定提交
的
所有
标记
。GitHub网站确实很好地列出了标签,但我找不到一种方法。
浏览 0
提问于2014-12-03
得票数 7
3
回答
在python脚本之后没有打印,没有错误
python
、
html
、
beautifulsoup
脚本运行,但在
解析
balancedheadlines时什么也不返回。我可以交换我寻找
的
标记
p并返回数据,但我相信我没有正确地通过
标记
来
检索
标题。import requestsr = requests.get(url) soup=
BeautifulSoup
(r.text, 'lxml')
浏览 0
提问于2019-02-24
得票数 0
回答已采纳
2
回答
用Python和
BeautifulSoup
解析
谷歌学者
的
结果
python
、
beautifulsoup
、
google-scholar
给定一个典型
的
关键字搜索谷歌学者(见截图),我想得到一个字典,其中包含标题和url
的
每一个出版物出现在页面上(例如。membrane of Vicia faba guard cells', 'url': 'https://www.nature.com/articles/338427a0'}为了从谷歌学者
检索
结果页面(content, 'lxml')
此
代码
以
(非常
浏览 1
提问于2018-05-27
得票数 5
2
回答
Python - HTML到Unicode
python
、
html
、
unicode
我有一个python脚本,在那里我得到了一些html,并使用漂亮
的
汤对其进行
解析
。下面是我获取HTML
的
方法xml = etree.HTML(html) 当我使用这个
的
时候因此,如果有非unicode字符,我
的
代码不会中断。
浏览 1
提问于2014-11-04
得票数 0
3
回答
函数中提取web数据。
python
、
performance
、
regex
、
web-scraping
结果是想要
的
结果,但我花了很多代码行。有什么办法优化它吗?
浏览 0
提问于2020-12-18
得票数 8
回答已采纳
1
回答
用漂亮
的
汤和蟒蛇刮掉一个iframe
beautifulsoup
我正在尝试抓取以下页面: import requestsr=requests.get('https://
浏览 2
提问于2015-11-29
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Python进行网页抓取的介绍
爬虫入门——详解Python是如何进行网页抓取!
Python 爬虫(五)
用python3教你任意Html主内容提取
总结 BeautifulSoup
活动推荐
运营活动
广告
关闭
领券