腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
BeautifulSoup
库
中
使用
find
all
()
和
()
txt
方法
?
、
但是当我
使用
find
_
all
()
方法
时,我希望它作为文本() 在for循环中显示,但我有以下输出: NoneNoneNoneNoneNoneNoneNoneNoneNoneNoneNonefrom bs4 import
BeautifulSoup
re url = 'https://divar
浏览 15
提问于2021-01-09
得票数 1
回答已采纳
1
回答
PDFQuery抓取
库
是否有自己的"
find
_
all
()“
方法
,
如
BeautifulSoup
?
、
但是,我很难找到一种
方法
来提取包含相同字符的内容。我试图提取这两个日期,但是当我
使用
pdf.pq('LTTextBoxHorizontal:contains("Date")').text()时,它只返回第一个约会Date:20210326。是否有一种
方法
可以返回PDFQuery
中
的所有匹配条件,
如
BeautifulSoup
中
的
find
_
all
()
方法
?
浏览 16
提问于2022-04-28
得票数 0
3
回答
如
何在
find
_
all
中
使用
find
()
和
BeautifulSoup
()?
、
、
我想要提取的信息是1.89
和
6.31 (产品价格)。spm=a2700.8270666-66.2016122619262.17.5a4d5d09En8wm9') soup =
BeautifulSoup
(page.text, 'html.parser')# get the repo list v2 = soup.
find
_
all
("meta&quo
浏览 4
提问于2019-12-17
得票数 4
回答已采纳
1
回答
不带类属性的嵌套div的
BeautifulSoup
.
find
_
all
、
、
我正在
使用
python2,我想在html页面
中
获取div的内容。<div class="lts-
txt
2"> </div>
BeautifulSoup
.
find
_
all
('div', attrs={"class": 'lts-
txt
2'})<
浏览 7
提问于2016-09-06
得票数 0
2
回答
Python提取相对href链接
、
、
、
我有一个html文件有吨的相对href链接,
如
;文件
中
还有很多其他的http
和
ftp链接,14/02/08: station1_140208.
txt
14/02/09: s
浏览 7
提问于2014-02-21
得票数 0
回答已采纳
2
回答
如
何在
python脚本中导入.py
、
我试图在python脚本中直接导入
BeautifulSoup
库
,但我无法安装它,因为我在语法DS213+中
使用
它,所以我尝试这样做:opener.addheaders = [('User-agent', 'Mozilla/5.0')] ins = open( "str.
txt
s=
浏览 3
提问于2014-02-24
得票数 0
回答已采纳
3
回答
如何
使用
python从网页中提取ids
和
类?
、
、
("https://quora.com") as response:我是Python的新手,不知何故,我成功地获取了网页,现在如何从网页中提取I
和
类
浏览 2
提问于2016-10-29
得票数 2
1
回答
python美汤导入urls
、
、
、
我正在尝试导入urls列表并抓取pn2
和
main1。我可以在不导入文件的情况下运行它,所以我知道它可以工作,但我只是不知道如何处理导入。这是我最近尝试过的,下面是urls的一小部分。提前谢谢。import urllibimport csvcsvfilelist = csvfile.read() soup = <e
浏览 1
提问于2016-03-01
得票数 0
2
回答
需要帮助
使用
BeautifulSoup
和
Python3从iframe解析链接
、
、
、
、
视频url是https://ndisk.cizgifilmlerizle.com...在一个名为vjs_iframe的iframe
中
。我的代码如下:from bs4 import
BeautifulSoup
iframes = soup.
find
_
all</
浏览 7
提问于2020-05-21
得票数 1
回答已采纳
1
回答
抓取网站时获取多个类的内容
、
、
、
看起来是这样的:soup =
BeautifulSoup
(page.content, 'html.parser') results = soup.
find
浏览 2
提问于2021-04-24
得票数 2
回答已采纳
2
回答
基于超链接文本的漂亮汤查找href
、
、
我有一个问题,试图获得漂亮的汤,以找到一个特定的标题
和
提取href的href。soup = bs4.
BeautifulSoup
(res.text, 'html.parser')sometexthrefonly = temp_tag_href.attr
浏览 0
提问于2018-05-15
得票数 0
回答已采纳
1
回答
当我
使用
的更新版本的
库
使用
不同的函数名时,如何解析硬编码?- python
、
、
、
当我
使用
的
库
使用
函数的不同名称时,是否有更好的
方法
来解决硬编码兼容代码的问题?try: from bs4 import
BeautifulSoup
as
浏览 4
提问于2013-11-26
得票数 0
回答已采纳
3
回答
使用
Python从数据转储中提取电子邮件
、
、
、
这是我
使用
BeautifulSoup
编写的代码import reurl = urllib2.urlopen("file:///users/home/Desktop/emails.html").read()email = raw_input(soup) matchtr><td><
浏览 0
提问于2016-06-07
得票数 0
1
回答
查找多个变量并将其从一个文件写入到另一个文件
original_file
中
的文本如下所示:1159<Date></Date>1300<Date>with open("original_file.
txt
", "r") as input_file, \ open("result_file.
txt
", &
浏览 0
提问于2016-03-06
得票数 2
1
回答
用漂亮汤抓取网页数据
、
、
、
我尝试过抓取商店位置的文本详细信息,并
使用
BeautifulSoup
将它们写入csv。在佐治亚州,第一家商店机场在名为location的单一类
中
,在LocationSecContent类
中
,其余4家在LocationSecContent
中
的另一个类位置
中
。我想要抓取文本详细信息,并将商店详细信息,
如
名称、位置、街道、电话、传真、小时内容
和
所有详细信息写入csv文件。我在firefox中
使用
firebug。以下是我尝试过的
方法<
浏览 0
提问于2017-05-16
得票数 0
1
回答
如何限制
BeautifulSoup
发现的元素的数量?
、
当
使用
BeautifulSoup
抓取网页时,是否有一种
方法
可以限制
find
方法
家族找到的元素数量。 例如,如果我只想要前5个标签,我可以
使用
BeautifulSoup
做这个吗?
浏览 1
提问于2020-06-09
得票数 2
回答已采纳
2
回答
在Python中
使用
BeautifulSoup
获取HTML文档的特定部分
、
我正在设法从一个HTML文档
中
获取一个特定的文本部分,该文档实际上没有
使用
python的任何标记。HTML代码如下所示。我目前正在我的python代码中
使用
Beatiful,所以如果有一个
使用
这个
库
的解决方案,它会非常方便。 提前感谢您的帮助!
浏览 1
提问于2022-10-17
得票数 0
回答已采纳
2
回答
无法在python
中
获取<div>标记值
、
所需的值存在于div标记
中
:<span class="upc grey-text sml">Cost for 2: </span></div>soup.select('div.search-page-text'): 但在输出
中
,我得到了“零”。
浏览 8
提问于2015-05-03
得票数 0
回答已采纳
1
回答
使用
Beautifulsoup
4从HTML
中
剥离文档类型?
、
、
我对Python很陌生,所以
BeautifulSoup
要忍受我. filename += '.
txt
' soup =
BeautifulSoup
(self.reportHtmlin soup.
find
_
all
(
浏览 2
提问于2017-11-08
得票数 4
回答已采纳
2
回答
使用
BeautifulSoup
解析html表
、
、
、
我正在尝试从这个时间表
中
获取给定一天的数据:from
BeautifulSoup
import
BeautifulSoup
html = inpu
浏览 2
提问于2011-12-04
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python爬虫从入门到精通(3):BeautifulSoup用法总结及多线程爬虫爬取糗事百科
Python爬虫之BeautifulSoup详解
Python实例:爬取网页中的一列数据
BeautifulSoup常用解析库-爬虫干货系列5
【一起学爬虫】BeautifulSoup库详解
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券