腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
4
回答
Python
-
Beautifulsoup
-
只
返回
一个
结果
、
def makesoup(url): return
BeautifulSoup
(page.text,"lxml") matchscrape(g_data = soup.findAll("div", {"class": "listData"})) 我遇到的问题是
只
返回
第
浏览 164
提问于2020-07-18
得票数 2
回答已采纳
1
回答
BeautifulSoup
只
返回
第
一个
结果
、
我正在从
一个
网站检索数据,并将其写入tsv文件。但是,我的代码
只
返回
第
一个
集合,而不是整个集合。请帮帮忙。hansard" html = urllib.request.urlopen(BASE_URL).read() soup =
BeautifulSoup
浏览 0
提问于2016-06-19
得票数 0
2
回答
BeautifulSoup
从Google获取<cite>标签
、
我正在制作
一个
Python
脚本,它在上搜索
一个
术语,并且
只
获取PDF链接。 from bs4 import
BeautifulSoup
import re get = requests.get(url
浏览 6
提问于2015-07-04
得票数 1
回答已采纳
1
回答
Python
BeautifulSoup
只
返回
顶层行
、
、
我一直在学习用
BeautifulSoup
刮网站,而且一直很顺利。借用代码,我已经设法刮了一些网站。然而,当我到达下面的网站时,我
只
返回
表的顶部一行。bris_id=4061015&report=activity' soup =
BeautifulSoup
(urllib2.urlopen(url).read(), 'html5lib')
浏览 3
提问于2016-06-16
得票数 0
回答已采纳
2
回答
如何指定所需文本并在正则表达式匹配中显示该文本?
、
我一直在尝试制作
一个
简单的
Python
网络爬虫,并使用正则表达式来查找相关链接。我正在试验的站点是
一个
wiki,我只想查找URL以/wiki/开头的链接。理想情况下,因为我可以将其扩展到站点的其他部分(例如,/bio/),我希望正则表达式
返回
"/wiki/rest_of_url“而不是简单的"/[rest_of_url”。> 工作正常(它找到以/开头的url),因为它
返回
" /wi
浏览 0
提问于2012-02-13
得票数 0
回答已采纳
2
回答
根据搜索词抓取Google图片
、
、
、
下面是用
Python
编写的代码:image_type=
浏览 20
提问于2017-07-27
得票数 0
1
回答
BeautifulSoup
XML解析-仅
返回
第
一个
结果
、
、
我正在尝试使用
BeautifulSoup
解析以下XML文件。但是,
只
返回
第
一个
结果
。 给定以下XML: <?xml version="1.0"?<LocalityQualifier>LocalityQualifierThree</LocalityQualifier> </AnnotatedStopPointRef> 和以下
Python
脚本: from bs4 import
Beaut
浏览 21
提问于2020-09-05
得票数 0
回答已采纳
3
回答
Python
/
BeautifulSoup
只
返回
第
一个
表项
、
、
、
我试图刮从
一个
网站的数据,但下面的代码将
只
从网站的表中的第一行,尽管在
一个
for循环。我遗漏了什么?import requestsimport pandasc = r.content soup=
BeautifulS
浏览 20
提问于2022-08-16
得票数 0
回答已采纳
1
回答
使用Find_All函数
返回
意外的
结果
集
、
、
、
、
我使用
python
3.8.2和bs4
BeautifulSoup
。我正在尝试查找标记的所有实例,并在
结果
集中列出每个实例,每一行
一个
。但是,
返回
的
结果
集包含的行数比网站的原始刮擦要多。这是因为
结果
集的第一行包含标记的所有实例。下一行包含除第
一个
实例之外的所有实例,第三个包含除第
一个
和第二个以外的所有实例,依此类推,
结果
集的其余部分也是如此。/drinks/seeall" html_co
浏览 4
提问于2020-04-05
得票数 1
回答已采纳
1
回答
如何在使用BS4从多个标签中提取数据后划分信息
、
我是
Python
的新手。从文档中提取列表时出现问题。我的sources文件并不是真正的html,但它有
一个
标签来提取所需的数据。from bs4 import
BeautifulSoup
page = open(url)for review in soup.find_all(['re
浏览 1
提问于2016-06-21
得票数 0
2
回答
Python
美汤如何在ul中找到李?
、
soup.find("ul",attrs={"class":"clearfix"}): print(durum) 我想用
BeautifulSoup
在ul中使用li,所以我写了这个命令,但是我得到了
一个
错误的'NavigableString' object has no attribute 'find_all'。
浏览 25
提问于2021-01-16
得票数 0
回答已采纳
1
回答
美丽的汤和链接与散列#
、
、
、
、
我在
Python
中使用
Beautifulsoup
。我尝试从包含hash #的链接中获取元素。这是
一个
分页链接,#后面的部分是页码。所以我用Chrome的开发者工具的网络标签检查了真实的URL,它给了我这个
结果
: 所以我的问题是,有没有一种方法来处理这种与
BeautifulSoup</
浏览 0
提问于2017-02-09
得票数 0
回答已采纳
1
回答
使用
BeautifulSoup
解析标签
、
、
、
、
我遇到了
一个
关于
BeautifulSoup
的
python
编程问题。 from bs4 import
BeautifulSoup
return soup.findAll('h3')它
浏览 2
提问于2013-03-29
得票数 3
回答已采纳
2
回答
无法从
python
中的html页面提取文本
、
、
我读到了关于
BeautifulSoup
的文章,并试图使用它。但我无法提取具有给定类名“company-desc-and-排序容器”的文本。我甚至不能从html页面中提取标题。这是我尝试过的代码:import requests r = requests.get(url) soup =
Beautifu
浏览 5
提问于2016-12-20
得票数 1
回答已采纳
2
回答
"class“属性
返回
列表,而其他属性
返回
值
、
、
对于
python
中的html解析非常方便,下面的代码
结果
融合了我。from bs4 import
BeautifulSoup
<table> <row in table.findAll("tr"): print row["cla
浏览 5
提问于2016-07-26
得票数 1
回答已采纳
2
回答
美汤和uTidy
、
、
、
我想把的
结果
传给阿拉巴马州的美丽汤:options = dict(output_xhtml=1,add_xml_decl=0,indent=1,(cleaned_html) File "/var/lib/
python
-support/
python
2.6/
BeautifulSoup
.py", line 1499, in __init____init__(self, *args, **kwargs
浏览 12
提问于2009-05-20
得票数 4
回答已采纳
2
回答
我怎样才能从源码中卸载漂亮的汤?
、
我安装了extracting -3.2.0.tar.gz从其中卸载它的命令是什么?我注意到有
一个
特定于linux发行版的包可用,它的名字叫
python
-
beautifulsoup
。我想安装系统特定的漂亮汤。
python
setup.py uninstall
浏览 0
提问于2012-01-30
得票数 1
回答已采纳
2
回答
无法使用
BeautifulSoup
解析谷歌搜索
结果
页面
、
、
、
我正在使用
python
中的
BeautifulSoup
从bs4解析网页。当我检查google页面的元素时,第
一个
部门有class = 'r',我编写了以下代码:site = requests.get('<url>')page =
BeautifulSoup
(site.content, 'html.parser') results = page
浏览 2
提问于2020-03-07
得票数 1
1
回答
Python
:无法使用bs4从网站中提取元素
、
、
、
、
我试图从这个中提取
一个
元素。更确切地说,我是想提取温度。下面是我试图使用
BeautifulSoup
4提取的以下元素:下面是我的
python
代码,它应该从上述站点提取元素:from bs4 import
BeautifulSoup
url = requests.get('https:/
浏览 3
提问于2017-03-17
得票数 0
回答已采纳
2
回答
抓取网站,为什么代码会给出不同的
结果
?
、
、
为什么当我点击网站并看到网站的源代码时,它会给我
一个
有条理的
结果
。import requests, bs4r=requests.get("https://www.scoreboard.com/mls/results/") soup=bs4.
BeautifulSoup
(r.content,"lxml"
浏览 0
提问于2018-06-16
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python3使用BeautifulSoup解析百度关键词搜索结果
Python爬虫学习(六)BeautifulSoup来袭
Python爬虫之BeautifulSoup详解
使用多个Python库开发网页爬虫(一)
BeautifulSoup常用解析库-爬虫干货系列5
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券