腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
我
在
使用
漂亮
汤
解析
html
数据
时
遇
到了
问题
。
、
、
、
、
我
正在尝试从以下链接下载匹配列表:https://www.vitisport.cz/index.php?rows = table.find('td').find_all('tr')from bs4 import Beaut
浏览 16
提问于2021-06-23
得票数 0
回答已采纳
1
回答
阅读
html
格式的outlook邮件
、
、
、
我
在
Microsoft Outlook中收到一封包含
html
表的邮件。
我
想把它
解析
成一个熊猫
数据
帧。找到消息后,
我
使用
以下代码将其读入到文本文件中。但是它将文本写成/n分隔的字符串,而不是
浏览 0
提问于2016-10-11
得票数 3
4
回答
美丽的
汤
没有从网站上收集到一些
数据
、
、
、
、
我
一直试图
使用
的
漂亮
汤
来收集一些
数据
。但是,当我
解析
内容
时
,有些
数据
根本没有显示出来。这些
数据
字段
在
铬检查器中可见,但在“
汤
”中看不到。
问题
是,它们似乎不是文本元素。
我
认为它们是
使用
外部
数据
库提供的。
我
已经附上了下面的截图。还有其他方法可以刮掉这些
数据
吗?谷歌检查员:
浏览 8
提问于2021-02-12
得票数 2
回答已采纳
1
回答
Python
html
解析
。
我
可以准备好了吗?
、
、
、
我
对蟒蛇很陌生。
我
可以打个电话来获取ready状态下的
html
内容吗?
我
需要
解析
一些只有
在
ready状态下才能查看的
html
站点。有什么变体可以这样做吗?谢谢,为
我
的英语道歉。这是
我
的代码:from lxml.
html
import tostringimport re letters = list(
浏览 5
提问于2016-11-22
得票数 1
回答已采纳
1
回答
美丽
汤
-如何从
汤
转换回
html
、
、
我
正在
使用
漂亮
的
汤
转换,
解析
和编辑一个
html
。这很好,但是,当
使用
formatter=“
html
”将
汤
对象转换回
html
时
,它增加了许多不在原来
html
中的空格和换行符。
我
能做些什么来保持原始格式? 谢谢
浏览 4
提问于2022-08-24
得票数 0
1
回答
刮破的汤和
漂亮
的
汤
有什么区别?
我
读过刮痕是一个网络爬行工具和美丽的
汤
是一个图书馆的刮痕。但我的朋友说,这两者是不同的,我们可以完成相同的任务,
在
美丽的
汤
,这是通过刮擦。
我
朋友的观点是真的吗?
我
也怀疑美丽的
汤
是刮刮的一部分,还是另一种?请告诉
我
浏览 1
提问于2015-02-25
得票数 2
回答已采纳
1
回答
如何在特定的google搜索python上获取所有urls
、
、
因此,
我
试图创建一个程序,获取谷歌网页搜索中的所有urls,并按其
在
页面上的位置顺序返回所有urls的列表。这是因为它是你
在
google上随机搜索源代码
时
的第一个链接。
我
使用
urllib3和re模块,因为
我
并不真正知道如何
使用
漂亮
的
汤
或lxml,但是如果您可以
在
漂亮
的汤和/或lxml中这样做,那也可以。:
我
的
问题
是使()函数工作正常,<
浏览 4
提问于2018-03-08
得票数 1
2
回答
Python -进行搜索,并从搜索引擎检索一定数量的图像
我
想从搜索引擎获得图像,运行一些自动化测试,而不需要在线和手动挑选它们。
我
发现了一个5年前的老例子(ajax.googleapis.com/ajax/services/search/images),不幸的是它不再起作用了。
在
Python3中执行此操作的当前方法是什么?理想情况下,
我
希望能够传递一个字符串与搜索名称,并检索设置数量的图像,
在
完整的大小。
我
真的不介意
使用
哪个搜索引擎;
我
只想确定它目前是否被支持。另外
浏览 8
提问于2018-08-17
得票数 1
1
回答
用Python语言
解析
带有gb2312正文的utf-8编码网页
、
、
、
、
我
正在尝试
使用
Python
漂亮
的soup
解析
器
解析
网页,但遇
到了
一个
问题
。我们从他们那里得到的
HTML
头声明了一个utf-8字符集,因此Beautiful Soup以utf-8对整个文档进行了编码,实际上
HTML
标签也是以UTF-8编码的,所以我们得
到了
一个结构良好的
HTML
问题
是,这个愚蠢的网站将gb2312编码的正文文本注入到页面中,页面被
漂亮
的
汤</
浏览 2
提问于2012-08-02
得票数 0
回答已采纳
2
回答
如何将从Chrome复制的css选择器路径转换为
漂亮
的路径?
、
、
、
我
一直
在
尝试做一个函数,当从Chrome开发工具复制的css选择器路径被给定时,它会返回
漂亮
的
汤
对象。当我从Chrome复制一个元素的css选择器路径
时
,它是这样的: body > table > tbody > tr:nth-child(2) > td.ColumnText2 如果
我
想让它成为一个合法
漂亮
的
汤
类对象,我会手动
解析
它,如下所示
html
= urlopen("http
浏览 20
提问于2019-09-27
得票数 2
回答已采纳
1
回答
将lxml与
漂亮
的
汤
一起
使用
、
、
我
很难让lxml与
漂亮
的
汤
一起工作。
在
osx 10.8.4上运行。为了安装lxml,
我
确实移植安装了py25-lxml,它安装得很好。现在,当我尝试将lxml与Beautiful Soup一起
使用
时,
我
得
到了
这个错误: File "********.py", line不确定这是否是
问题
的一部分,但我无法导入lxml.etree 还有没有人在o
浏览 1
提问于2013-06-22
得票数 2
3
回答
BeautifulSoup
在
解析
后返回空格的文本
、
、
、
、
我
正在刮本地
html
文档。然而,当我用
漂亮
的
汤
解析
它
时
,它会以难看的格式(如下图所示)返回不可
解析
的
html
格式。path = 'alerts/myfile.htm'parser = BeautifulSoup(file,'
html
.parser'
浏览 0
提问于2019-02-28
得票数 3
回答已采纳
1
回答
pickle.dump与RuntimeError相遇: cmp中超过最大递归深度
、
、
我
注意到它可能是由
漂亮
的
汤
或递归
数据
结构引起的。然而,导致错误的
数据
结构似乎没有
问题
:def __init__(self, name="", dscore=0, mscore=0, durl="", murl=""):/ ' + unicode(self.mscore) \ + u' / ' + unicode(self.durl) +
浏览 0
提问于2014-03-25
得票数 4
2
回答
BeautifulSoup找不到标签
、
我
试图从网站中抓取
数据
,但是find()方法找不到tag.Below是
我
的代码:from bs4 import BeautifulSoup x=soup.find("div",attrs={'id':'content-two'})然后,
我
发现
浏览 7
提问于2013-09-22
得票数 3
1
回答
如何防止网页崩溃BeautifulSoup?
、
、
、
、
在
Python3.2.3上,运行在KubuntuLinux12.10上的请求为0.12.1和BeautifulSoup 4.1.0,
我
在
解析
时
出现了一些网页中断: responseresponse);请注意,数百个其他网页
解析
良好这个正在崩溃的Python页面是什么,
我
如何处理
浏览 4
提问于2013-06-16
得票数 1
回答已采纳
1
回答
网络抓取-
使用
BeautifulSoup
、
、
、
我
刚接触
漂亮
的
汤
,
在
篮球参考中
使用
它也有困难。
我
正在尝试将高级统计
数据
的整个
数据
帧存储到pandas
数据
帧中,但我甚至无法选择它。到目前为止,
我
的代码如下:from bs4 import BeautifulSoup import pandas as pdurl='http://www.basketball-refer
浏览 0
提问于2016-01-14
得票数 0
1
回答
Pandas和
HTML
标记
、
、
、
我
正试着把这张上的桌子拉下来。当我
使用
pd.read_
html
加载URL
时
,
我
如期得
到了
一系列
数据
帧,但
问题
是表格单元格中的
HTML
标记已经消失了。有没有什么方法可以
使用
pandas来拆分表格并保留表格单元格中的
HTML
?import pandas as pd df = pd.read_
html
('http://geppopotamus.info
浏览 4
提问于2018-12-08
得票数 1
1
回答
用id网络抓取python <span>
、
、
、
、
我
想要在<span/>属性中
使用
BeautifulSoup为给定的网站报废
数据
。你可以
在
屏幕截图中看到它所在的位置。但是,
我
使用
的代码只是返回一个空列表。
我
找不到我想要的名单上的
数据
。
我
做错了什么?opener.addheaders = [('User-agent', 'Mozilla/5.0')]
浏览 2
提问于2018-02-22
得票数 0
回答已采纳
1
回答
从站点获取空标记
、
、
我
使用
漂亮
的
汤
来
解析
来自站点的
数据
。
我
有
问题
,
在
标签中有一个文本在网站上,但我得到一个空标签(没有
数据
)。
我
的代码:import lxml get_data= s.get('https://naturasiberic
浏览 1
提问于2022-10-17
得票数 1
回答已采纳
1
回答
我
需要实现一个网络刮板,以编译从https://diatoms.org/species的图像
数据
库
、
、
、
对于一个研究项目,
我
正在尝试实现一个脚本,它将通过这个网站,并保存来自每个物种的图像集,文件保存为"genus_species_index.jpeg“。
我
也一直在看美丽的
汤
教程。主要的
问题
是通过脚本访问每个物种页面已经被证明是相当困难的。
浏览 9
提问于2019-11-26
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券