腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4751)
视频
沙龙
1
回答
BeautifulSoup
抓取
USGS
数据流
有
困难
、
USGS
有
各种各样的奇特提醒,你可以注册,但不是每天早上给你发电子邮件最新的出院信息。我想在获得这些信息的同时,与
BeautifulSoup
一起练习。我尝试过太多不同的Dr.我想我发现了以下几点: page=requests.get('https://waterdata.
usgs
.gov/nwis/uv/?site_no=03479000') soup=
BeautifulSoup
(page.text,'html.parser&
浏览 26
提问于2021-02-11
得票数 0
回答已采纳
4
回答
解析网站上的HTML以进行
抓取
、
、
虽然这显示在页面源代码(web开发人员工具)的第862行中,但当我通过
BeautifulSoup
解析时,它不会显示出来。使用lxml解析器也不会产生预期的结果。import requestsfrom bs4 import
BeautifulSoup
soup =
BeautifulSoup
(page.con
浏览 0
提问于2017-09-26
得票数 1
0
回答
抓取
表的
困难
(Python、
BeautifulSoup
)
、
、
我正在努力从这个网站上
抓取
表格: driver = webdriver.Chrome() time.sleep(5) soup=
BeautifulSoup
浏览 6
提问于2018-07-15
得票数 1
回答已采纳
3
回答
Python中的屏幕
抓取
、
虽然我在R中做过一些屏幕
抓取
,但我对Python中的屏幕
抓取
这个概念还是个新手。我正在尝试
抓取
Yelp网站。我在试着
抓取
yelp搜索返回的每家保险公司的名字。对于大多数
抓取
任务,我能够执行以下任务,但在解析xml时总是遇到
困难
。import urllib2 soup =
BeautifulSoup
(urllib2.urlopen('http:&
浏览 0
提问于2011-06-30
得票数 3
回答已采纳
1
回答
利用
BeautifulSoup
网络
抓取
Javascript表
、
我是相对较新的网络
抓取
和原型使用各种网站。我在
抓取
似乎是Javascript加载的表时遇到了
困难
。任何帮助都将不胜感激。以下是我的代码:from bs4 import
BeautifulSoup
toronto/0/1/0/10
浏览 0
提问于2018-04-30
得票数 0
回答已采纳
1
回答
使用BS4从python中
抓取
团队统计表
、
、
、
我正在尝试从职业足球参考中
抓取
一个表格,特别是来自的团队进攻表。每当我尝试下面的代码时,我都会得到一个空列表或一个NoneType。我已经
抓取
了其他网站,如ESPN,没有任何问题。import requests
浏览 2
提问于2020-08-13
得票数 1
2
回答
ESPN Gamecast Python Webscraping
、
、
我
有
困难
从ESPN记分板网页
抓取
espn Gamecast链接。我试过: soup =
BeautifulSoup
浏览 4
提问于2021-06-24
得票数 0
回答已采纳
2
回答
删除python中的span标记
、
我是一个新手,在使用
BeautifulSoup
从页面
抓取
html后,移除跨度标签有
困难
。尝试使用"del links‘’span‘,但返回相同的结果。使用getText()的一些尝试也失败了。from bs4 import
BeautifulSoup
import recontent = url.read() soup =
浏览 2
提问于2013-06-12
得票数 1
1
回答
在包含"sometext“的网页中获取链接的xpath
、
、
我正在使用scrapy (网络爬行框架)。是否可以在网页中获取某个元素(包含"sometext")的xpath,以便提取具有类似xpath的元素?我不希望我的xpath被硬编码,因为我将爬行多个网站。
浏览 2
提问于2016-01-16
得票数 0
回答已采纳
1
回答
使用
BeautifulSoup
抓取
[帮助]
、
、
、
我参加了一个学习Python的课程,并尝试进行一些
抓取
,但是我的程序遇到了一些
困难
(我使用PyCharm): tags = soup
浏览 0
提问于2017-10-11
得票数 0
1
回答
为公司详细信息刮取数据
、
我试图刮刮公司名称,邮政编码,电话号码和网页地址:发现很
困难
,因为信息只有在点击页面上的区域时才能检索到。如果有人能帮忙的话,我会非常感激的。对于Python来说都是非常新的,特别是
抓取
!!pip install urllib3 from urllib.request import urlopen url = "https://www.matki.co.uk/ma
浏览 6
提问于2022-08-22
得票数 0
4
回答
屏幕
抓取
窗体结果
、
、
作为这项工作的一部分,他们想要对他们的一个供应商的报价站点进行一些屏幕
抓取
。他们询问他们的API是否可以做到这一点,并被告知没有,但如果他们可以从他们的引擎中获得数据,他们可以随心所欲地使用它。我的问题是:是否可以对表单提交到另一个站点的响应执行屏幕
抓取
?如果是这样,我应该注意的陷阱是什么?抛开明显的法律/道德问题不谈,因为他们已经要求允许我们做我们计划做的事情。
浏览 1
提问于2009-08-03
得票数 3
回答已采纳
4
回答
JavaScript和HTML的
抓取
、
、
、
、
我正在做一个项目,其中我需要
抓取
几个网站,并从他们收集不同种类的信息。信息,如文字,链接,图像等。
有
什么办法吗?
浏览 8
提问于2014-03-31
得票数 5
回答已采纳
2
回答
Python -如何使用'requests &
BeautifulSoup
‘
抓取
Tr/Td表数据
、
、
我正在尝试建立一个程序,将
抓取
tr/td表数据从网页,但我
有
困难
成功。这是我到目前为止所知道的:from bs4 import
BeautifulSoup
source_code = requests.get(url).text for table_data in soup.find_all('td', {'
浏览 0
提问于2014-11-03
得票数 0
回答已采纳
1
回答
使用
BeautifulSoup
实现多页网页
抓取
、
、
我正在尝试用
BeautifulSoup
抓取
这个网页的https://www.whoscored.com/Statistics,以便获得球员统计表的所有信息。我
有
很多
困难
,不知道有没有人能帮我。url = 'https://www.whoscored.com/Statistics'soup =
BeautifulSoup
(html此外,表格
有
几
浏览 10
提问于2019-03-15
得票数 1
1
回答
美丽的汤无法从桌子上获取信息
、
、
使用python几个月后,使用
BeautifulSoup
从表中
抓取
一些信息会有
困难
,任何帮助都将不胜感激。我没有收到任何错误代码,而是没有从表中接收到任何数据。bssoup = bs.
BeautifulSoup
浏览 3
提问于2017-02-12
得票数 2
回答已采纳
1
回答
有
什么特别的方法来刮一个动态的网站吗?
、
、
、
、
搜索框(输入安全名称/代码/ID)是我遇到
困难
的地方。我不能用xpath来
抓取
它,我正在使用机械化库进行浏览器模拟,但它似乎不起作用。我试过的密码:from bs4 import
BeautifulSoup
url = 'https://www.bseindia.com/corporates/corporate_act.aspx'soup = <
浏览 1
提问于2020-02-03
得票数 0
1
回答
试图找到正确的变量来
抓取
屏幕。
、
(登录到网站),但我试图添加一个屏幕
抓取
部分到代码中,我
有
一点
困难
,我得到我想要的结果。当我运行代码时,我得到了"None“,我不确定是什么导致了这个问题。我认为这是由于我可能没有正确的属性,它试图
抓取
。import requestsfrom bs4 import
BeautifulSoup
url =ClassID=326' page = urllib2.urlopen(quote_
浏览 2
提问于2018-01-10
得票数 0
3
回答
Python漂亮的汤,在网站上刮桌子
、
我最近开始对通过python库
beautifulsoup
4进行网络
抓取
感兴趣,我的目标是获取有关新冠肺炎案例的数据(在摩洛哥是一个良好的开端);我的信息所在的网站是:"“
有
一个包含所有信息的大表,我尝试这样做:response = requests.get(U)但是信息列表是空的,
浏览 0
提问于2020-10-16
得票数 0
回答已采纳
4
回答
Bs4选择器:用美汤刮亚马逊
、
、
我试图刮一个网站,
有
链接到亚马逊与Python使用这些框架-硒,美丽的汤。这是针对第一个产品的,稍后我将对此进行迭代 from bs4 import
BeautifulSoup
import time first_article.click()soup =
BeautifulSoup
浏览 50
提问于2018-06-08
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用多个Python库开发网页爬虫(一)
Python爬虫入门,快速抓取大规模数据
Python爬虫入门,快速抓取大规模数据2
这里有一份Python教程
没资料,写不出论文?试试网络爬虫吧!
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券