腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
BeautifulSoup
和
未找到
的
内容
进行
网络
抓取
、
、
、
、
我正在尝试用Python语言中
的
BeautifulSoup
来做一个基本
的
网络
爬行器。然而,我
的
目标页面正在使它变得困难。from bs4 import
BeautifulSoup
from ur
浏览 16
提问于2020-02-05
得票数 0
2
回答
使用
BeautifulSoup
和
json
进行
网络
抓取
、
、
、
我正在尝试构建一个
网络
爬行器,它将拉出加密货币价格
的
历史数据,但当我试图打印出这些数据时,输出结果为none。代码如下: #Libraries from bs4 import
BeautifulSoup
coins = {} soup =
浏览 31
提问于2021-06-28
得票数 0
回答已采纳
2
回答
使用
BeautifulSoup
进行
网络
抓取
、
、
我试图收集一些数据来
进行
训练,但我被卡住了。 我想刮掉日期,而不仅仅是年份,但我现在还不知道该怎么做。下面是我想要摘录
的
部分: htmlscrape 到目前为止,我
的
脚本如下: import requestsfrom bs4 import
BeautifulSoup
import re res
浏览 6
提问于2020-10-21
得票数 1
2
回答
使用
Python在youtube中搜索打开第一个视频
、
、
、
我试了试,但不知道如何打开第一个视频。此代码在浏览器中打开搜索。 words = search.split() link += i + "+" webbrowser.open_new(link[:-1])
浏览 1
提问于2020-04-10
得票数 3
1
回答
避免
使用
优美汤和urllib.request下载图片
、
、
、
我
使用
BeautifulSoup
('lxml'解析器)
和
urllib.request.urlopen()从一个网站获取文本信息。但是,当我在Acitivity中查看
网络
部分时,我看到python下载了很多数据。这意味着不仅文本被下载,而且图像也被下载。 在
使用
BeautifulSoup
进行
网络
抓取
时,有可能避免下载图片吗?
浏览 2
提问于2016-04-03
得票数 0
回答已采纳
1
回答
使用
BeautifulSoup
进行
网络
抓取
的
问题
、
、
、
我是
使用
beautifulSoup
的
新手,有一个问题;感谢您
的
帮助:import requests soup1 = soup(page.content, 'html-parser') 同时,我在单独
的
浏览器中访问我找到了两个独立
的
模式来满
浏览 3
提问于2020-04-20
得票数 0
2
回答
利用Scrapy
和
BeautifulSoup
进行
网络
抓取
、
、
" data-nid="117" data-localisation="25.88872, -80.12488">大家好,我正在收集'data-nid‘
和
'我是
BeautifulSoup
的
新手,对此我感到不自在。 非常感谢!
浏览 1
提问于2018-07-09
得票数 0
回答已采纳
1
回答
用python
和
BeautifulSoup
进行
网络
抓取
、
、
、
、
我试图从一个网站中提取数据,这些数据列在一个表格中:soup =
BeautifulSoup
(url.content) table=soup.find_all
浏览 5
提问于2020-04-25
得票数 0
回答已采纳
1
回答
网络
抓取
内容
:在
使用
BeautifulSoup
之前?
、
、
、
、
我对python非常陌生,并且尝试过
抓取
一些网站。他们中
的
一些人工作得很好,但我现在偶然发现了一个让我很难相处
的
。
使用
的
网址是:。我试图从这个页面获得所有的产品标题
和
urls。这是我到目前为止掌握
的
代码: source = requests.get(url) soup =
BeautifulSoup
浏览 8
提问于2022-07-11
得票数 0
回答已采纳
2
回答
Python从多个页面请求.get()?
、
、
、
我正在学习如何
使用
python
进行
网络
抓取
,我想知道是否可以
使用
requests.get()
抓取
两个页面,这样我就不必
进行
两个单独
的
调用
和
变量。例如:r2 = requests.get("page2") pg
浏览 0
提问于2017-06-03
得票数 2
1
回答
如何配置Scrapy以
使用
BeautifulSoup
解析器
、
、
、
我
使用
BeautifulSoup
的
默认html.parser从任何网页中提取数据,没有什么原因让我觉得它比
使用
XPATH/CSS选择器更灵活、更强大。在
抓取
之前,我学习了
使用
BeautifulSoup
进行
网络
抓取
。我想不出一种让Scrapy
使用
bs4作为解析器
的
方法。有可能吗?
浏览 2
提问于2019-08-18
得票数 0
回答已采纳
2
回答
使用
BeautifulSoup
遍历URLS
进行
网络
抓取
、
、
、
这是我
的
代码,用来从www.oddsportal.com中剔除。import pandas as pdfrom selenium import webdriver del threadLocal gc.collect() # a little extra insurance 目前,代码只获取一个urls
的
数据我想我正在尝试将这一部分集成到我
的
浏览 7
提问于2021-09-07
得票数 0
回答已采纳
2
回答
用urllib
进行
Web
抓取
、
我试着做一些简单
的
web
抓取
,我不断地得到这个错误,我不确定哪里错了,因为我对python相当陌生。 异常:需要一个类似字节
的
对象,而不是'str‘。
浏览 8
提问于2016-12-19
得票数 0
回答已采纳
1
回答
如何从文本文件selenium中读取
内容
、
、
driver.get(url = main_url+f'/bot/{bot_id}/users') 我可以在不下载文件
的
情况下从文件中读取
内容
吗?
浏览 3
提问于2022-08-25
得票数 0
1
回答
使用
BeautifulSoup
找不到深度嵌套标记ID
、
我试图从中
抓取
NBA数据,但我遇到了
BeautifulSoup
抛出深度嵌套标记
的
问题。我试着用soup.find(id='opponent-stats-per_game')来
抓取
“对手每个游戏统计”表。然而,我得到了None
的
结果。如果我试图找一个在树上更高
的
div,那么它会剪辑更深
的
孩子。 有人能给我一些指导吗?我对
使用
BeautifulSoup
进行
网络
抓取
相
浏览 1
提问于2019-04-03
得票数 0
回答已采纳
2
回答
使用
BeautifulSoup
进行
网络
抓取
时出错
、
、
我正在从齐洛
的
website.So收集住房数据--我已经从第一个webpage.For收集了数据--我
的
下一步,我试图找到到next按钮
的
链接,它将导航我到第2页,第3页,等等。我
使用
Chrome
的
检查功能来定位“next按钮”按钮,该按钮
的
结构如下 <a href=”/homes/recently_sold/house_type/47164_rid/0_singlestoryonclick=”SearchMain.changePa
浏览 1
提问于2018-10-05
得票数 1
回答已采纳
1
回答
使用
BeautifulSoup
进行
网络
抓取
返回NoneType
、
我试图用
BeautifulSoup
刮一个网站,并编写了以下代码:from bs4 import
BeautifulSoup
soup =
BeautifulSoup
(page.text, 'html.parser')
浏览 1
提问于2019-01-18
得票数 3
回答已采纳
9
回答
BeautifulSoup
和
Scrapy crawler有什么区别?
、
、
、
我想做一个网站,显示亚马逊和易趣产品价格
的
比较。其中哪一个会工作得更好?为什么?我对
BeautifulSoup
比较熟悉,但对Scrapy crawler不太熟悉。
浏览 323
提问于2013-10-30
得票数 146
回答已采纳
3
回答
使用
BeautifulSoup
进行
网络
抓取
(Jupyter Notebook)
、
、
、
我正在尝试从一个开源门户网站
抓取
数据集。只是想弄清楚怎样才能
抓取
网站。我正在尝试从data.toerismevlaanderen.be获取数据集这就是我想要
的
数据集:这是我
的
代码:import time url = 'https://data.toerismevla
浏览 0
提问于2019-11-15
得票数 1
2
回答
Python 3.5.2 web-scraping - list索引超出范围
、
、
我是新
的
网络
抓取
,并试图
抓取
所有
内容
的
餐厅
的
详细信息形式,以便我可以继续我
的
进一步
抓取
。import requestsimport urllib r=requests.get(url) soup=
Beauti
浏览 5
提问于2016-09-21
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券