腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
FindAll
("a")
在
漂亮
的
蟒蛇
汤
中
web-scraping
、
beautifulsoup
、
python-3.6
Python
的
新手,有人能解释一下
findAll
("a")在下面代码
中
的
含义吗?我可以用其他字母代替它吗?像g,h,m?"a“
的
意思是
在
文章中找到”a“吗?:).)*$"))
的
意思是找到那些名字中有维基
的
链接?/wiki/Kevin_Bacon")for link in bsObj.find("div",
浏览 10
提问于2017-08-08
得票数 0
回答已采纳
1
回答
如何在跨度类
中
获得样式内部
的
宽度?
python
、
html
、
css
、
beautifulsoup
、
screen-scraping
我用
的
是
漂亮
的
蟒蛇
汤
。我
的
代码就是为了得到它:但它给了我整条线-- <span class=我试着得到宽度内
的
值。有没有可能用
漂亮
的
汤
,
蟒蛇
?谢谢你们。
浏览 2
提问于2022-05-09
得票数 0
1
回答
如何为学院安装
漂亮
的
汤
?
jupyter-notebook
我安装了
蟒蛇
,并能使用jupyter笔记本以及熊猫。我该如何安装
漂亮
的
汤
?我要把这个放在命令提示符
中
吗?
在
jupyter笔记本里?我得到
的
错误是:(C:\Users\skull\Anaconda3\lib\site-packages\bs4_init_.py):ImportError:无法从“bs4”导入名称“
漂亮
汤
”
浏览 0
提问于2020-09-29
得票数 1
回答已采纳
2
回答
Webscraping推广信息
python
、
beautifulsoup
我刚开始和
蟒蛇
合作,试着用
漂亮
的
汤
刮一个网站。我可以得到诸如标题和价格之类
的
信息,但我无法获得促销信息所需信息:"Vitacura Vitamine C 1+1免费“import requests Promotion = soup.find("div", { "class" : &quo
浏览 6
提问于2022-04-14
得票数 -2
1
回答
使用BeautifulSoup
的
Python数据
python
、
xml
好
的
,我
在
使用Beautiful过滤掉一些XML数据时遇到了问题。text in here - </body>- </work_log>我试图只
在
通信/日记_条目/正文部分
中
获得值,但是我
的
代码仍然
在
工作日志/日记_条目/正文部分中提供值。H
浏览 0
提问于2018-03-13
得票数 1
回答已采纳
1
回答
如何在特定
的
google搜索python上获取所有urls
python
、
python-3.x
、
parsing
因此,我试图创建一个程序,获取谷歌网页搜索
中
的
所有urls,并按其
在
页面上
的
位置顺序返回所有urls
的
列表。因此,如果它是google搜索页面
中
“随机”
的
链接
的
顶部url,那么列表
中
应该返回
的
第一项应该是"“。这是因为它是你
在
google上随机搜索源代码时
的
第一个链接。我使用urllib3和re模块,因为我并不真正知道如何使用
漂亮
的
<e
浏览 4
提问于2018-03-08
得票数 1
3
回答
在
两个带有
漂亮
汤
的
<a>标签之间找到<i>标签
python
、
html
我用
的
是
蟒蛇
和
漂亮
的
汤
。<i>Hello<\i><i>Bye<\i> 我想得到所有的"a“标签文本(我知道如何做,我只是不知道如何到达他们)之间
的
Hello和Bye标签,但不是
在
Bye和Hello标签之间。有
漂亮
的
汤和
蟒蛇
可以吗?
浏览 9
提问于2017-08-16
得票数 1
回答已采纳
4
回答
Python 2.7美
汤
Img源提取
python
、
beautifulsoup
for imgsrc in Soup.
findAll
('img', {'class': 'sizedProdImage'}): imgsrc = imgsrcelse:findPatImgSrc = re.
findall
img height=&q
浏览 0
提问于2011-11-28
得票数 20
回答已采纳
2
回答
如何使用Beautiful Soup (python)递归地从网站获取所有链接
python
、
beautifulsoup
深度应该是5-10,这样它就会返回一个包含找到
的
所有链接
的
数组。最好是用
漂亮
的
汤
/
蟒蛇
。谢谢! soup=BeautifulSoup(page.read()) universities=soup.
findAll
浏览 0
提问于2013-11-26
得票数 7
回答已采纳
2
回答
BeautifulSoup排除
findAll
中
的
标记
python
、
html
、
beautifulsoup
、
lxml
在
漂亮
汤
中
,如何在使用
findAll
时排除特定标签
中
的
标签。<tr>标记
中
的
标记。soup.
findAll
(['p']) 上面的代码将获取所有的<p>标记,但我需要在<tr>标记中提取<p>标记。
浏览 1
提问于2020-08-13
得票数 4
回答已采纳
2
回答
如何使用python
在
脚本
中
获取值
python
、
python-2.7
、
python-3.x
、
web-scraping
、
beautifulsoup
我正在用
蟒蛇
和
漂亮
的
汤
创建一个爬虫。我搜索了一个美好
的
汤
,并设法返回我需要
的
标记,但我不能把它变成一个json来访问信息。这是我为获得以下内容而编写
的
代码: dataLayer = page.
findAll
('script')[NUMBER OF SCRIPT
浏览 3
提问于2017-01-23
得票数 1
回答已采纳
1
回答
我正在寻找一个国家预防机制
的
建议,为刮刮网站?
web-development
、
node.js
、
internet
如果有一个更好
的
堆栈交换站点来问这个问题,请告诉我。网站-刮刀更多..。 scotch.io还有一个教程,
在
堆栈过流上还有一个类似的(而不是重复
的
)老问题
浏览 0
提问于2019-06-02
得票数 0
1
回答
从高度非结构化
的
网页中提取数据
web-scraping
、
beautifulsoup
我通常使用
漂亮
汤
与
蟒蛇
一起从页面中提取数据。我有一个奇怪
的
情况,在那里,他们把输入以一种非常非结构化
的
方式。在对源
的
检查
中
,我发现它是这样存储
的
。<br>அகங்காரவிர்த்தி,akangkāravirtti,நானென்னும்வடிவுஞானம்for a in
浏览 6
提问于2016-08-20
得票数 1
回答已采纳
2
回答
包含多个全文行
的
python美观
汤
标记,很难以通用
的
方式找到。
python
、
beautifulsoup
、
parent-child
关于使用
漂亮
汤
从一行中提取文本,有多个问题可以回答,但是,我找不到获得正确文本
的
解决方案,例如: <div> <span>bananas3 oranges 如果可以发现父程序是<div>,则不需要将其指定为
findall
的
一部分。有趣
的
是,html2text可以为这种类型
的
文件生成完美的输出(没有标记),但是
漂
浏览 6
提问于2022-06-24
得票数 0
3
回答
python regex来查找包含文本'abc123‘
的
任何链接
python
、
regex
、
beautifulsoup
我正在使用
漂亮
的
汤
来查找所有的href标签。我需要你帮我处理正则表达式,明白了吗?
在
我
的
代码片段
中
。
浏览 5
提问于2010-08-07
得票数 0
回答已采纳
2
回答
为
蟒蛇
弄到
漂亮
的
汤
python
、
beautifulsoup
我正试着让
漂亮
的
汤
在
我
的
Mac上运行,它不起作用,而且我已经到了我
的
智囊团。它看起来真的很容易安装,这是更令人恼火
的
。我正在运行Python版本3.5.1 我是Python
的
新手--
在
python文档和其他堆栈溢出
的
过程
中
花了最后一个小时
的
时间,但还没有找到一个可行
的
解决方案。下面是代码(需要sys路径行,因为当我运行pip beautifulsoup4时,它就是
浏览 1
提问于2016-04-24
得票数 1
回答已采纳
1
回答
Selenium未完全下载文件
python
、
macos
、
file
、
selenium
、
download
我已经用
漂亮
的
汤
、硒(铬)和
蟒蛇
建立了一个网络刮板。 它非常简单,
漂亮
的
汤
解析了一个充满链接
的
页面,selenium每次遵循这些链接1。Selenium
在
每个页面上找到一个特定
的
下载链接,然后单击它,开始下载。我会用这个
漂亮
的
汤
,但如果我不使用浏览器点击链接,它将发送我到一个页面的captcha。无论如何,当selenium开始下载文件时,程序显示
在</e
浏览 0
提问于2014-09-06
得票数 1
回答已采纳
1
回答
漂亮
汤
findAll
()结果上
的
findall
()返回TypeError
python
、
beautifulsoup
我试图仅从表格
的
特定部分获取文本。但是似乎
findAll
的
结果不是可以再次运行
findAll
的
BeautifulSoup类型。select = soup.find('table',{'id':"tp_section_1"})tissues = select.
findAll
"tissue[10]")}) print "got
浏览 0
提问于2010-10-15
得票数 2
回答已采纳
2
回答
Beautifulsoup
findAll
返回一个空列表
python
、
web-scraping
、
beautifulsoup
我试着用
漂亮
的
汤
抓取网页,但是
findAll
()返回一个空列表。这是我
的
代码: URL = "https://elcinema.com/en/index/work/country/eg?page=1" recordList = bsObj.
find
浏览 41
提问于2021-03-30
得票数 0
回答已采纳
2
回答
BeautifulSoup
中
的
匹配标签
python
、
regex
、
beautifulsoup
我正在试着从一个
漂亮
的
汤
结果中计算“
汤
”
中
的
标签数量。我想使用正则表达式,但遇到了麻烦。我尝试过
的
代码如下:tags = re.
findall
(reg_exp_tag, soup(cast as a string))但是re将不允许reg_exp_tag,这会给出一个意外
的
正则表达式结尾错误。
浏览 2
提问于2009-11-09
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券