腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Transfermarkt
url
id
抓取
、
、
、
基本上,我想创建一个工具,让你输入球员的名字(就像在
transfermarkt
上一样,这很好),它会给你一个的列表。我可以用美容汤把它刮掉。问题是,这个网站的 ids是随机的。如果不是,我如何
抓取
整个数据库?(仅包含每个球员的队友的页面)
浏览 18
提问于2018-08-24
得票数 0
回答已采纳
1
回答
用漂亮的汤刮数据,结果是404
、
、
、
我想从下面的
URL
http://www.
transfermarkt
.co.uk/wettbewerbe/europa中
抓取
数据
url
= 'http://www.
transfermarkt
.co.uk/wettbewerbe/europa' response = urllib.request.urlopen(
url</
浏览 5
提问于2017-01-28
得票数 2
回答已采纳
1
回答
结构的BeautifulSoup异常处理
、
、
、
、
我代码的相关部分:from bs4 import BeautifulSoup 'Referer': 'ht
浏览 0
提问于2019-02-26
得票数 1
回答已采纳
1
回答
动态
抓取
内容,其中
URL
的三个部分动态变化
、
、
我试图从
transfermarkt
为球员
抓取
内容,那里的单个球队的
url
几乎是相同的,但是
url
的3部分是动态变化的。# make a target
url
with the relevant year map_df(2017:2
浏览 2
提问于2022-01-21
得票数 0
回答已采纳
2
回答
如何在网站上
抓取
多个页面跳转具有相同
url
的站点?
、
、
我正在使用美丽汤,我想从这个网站上
抓取
数据(转会费用和球员姓名)- www.
transfermarkt
.co.uk/transfers/transferrekorde/statistik/top/plussaison_
id
=2000 但是您会注意到,该页面只显示前25个名字。你必须点击“下一步”来查看接下来的25个名字,以此类推,共十页。但是,
URL
不会更改。saison_
id
=2000" page1 = "https:/
浏览 26
提问于2019-02-26
得票数 1
回答已采纳
1
回答
Webscraping:数据帧未填充
、
因此,我希望从上搜集数据,特别是英超球员的姓名和
URL
。我是这样做的:首先
抓取
联盟中所有球队的
URL
,然后查看这些球队中的单个球员。我遇到的问题是数据没有保存到框架中。library(rvest)
浏览 12
提问于2017-06-30
得票数 0
2
回答
我有一个有100多个稍微不同的
URL
的向量,如何在不为每个
URL
手工编写行的情况下刮擦
、
、
幸运的是,
transfermarkt
.de非常有序,您只需稍微修改网址就可以获得所需的每个主页。X只是一个占位符,也可能有'z‘或其他任何东西。105是俱乐部的
ID
我有132个观察,所以我可能需要132个不同的
URL
与不同的俱乐部和赛季
id
。我可以生成一个包含所有
URL
的向量,但是我不知道如何读取每个
URL
的Html并立即获取除法信息。:/
浏览 0
提问于2019-07-17
得票数 0
回答已采纳
1
回答
抓取
HTML表python bs4
、
、
、
我会从
Transfermarkt
player配置文件页面的两个html表中
抓取
数据。下面是一个页面示例:https://www.
transfermarkt
.com/cristiano-ronaldo/profil/spieler/8198 第一个是“事实和数据”表,第二个是“统计”表。我想开始从搜索页面
抓取
urls。一旦我从搜索页面的每一个页面获得urls,就开始
抓取
每个玩家链接的统计数据。 如何从链接中
抓取
html表格数据?
浏览 14
提问于2021-04-13
得票数 1
2
回答
抓取
0页,即使存在元素
、
我正试着用刮擦的方法刮
transfermarkt
.nl。class TransferMarketScraper(scrapy.Spider): starts_urls = ['https://www.
transfermarkt
.nl/heracles-almelo/kader/verein/1304/saison_
id
/2022/plus/1
浏览 11
提问于2022-08-11
得票数 -1
2
回答
Transfermarkt
网络报废失败
、
、
我已经创建了下面的代码来从
Transfermarkt
中
抓取
数据,但是它会产生错误。64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36'} pageTree = requests.get(page, headers=headers)
浏览 6
提问于2022-01-15
得票数 -1
3
回答
Web
抓取
-
transfermarkt
最有价值的球员
、
、
我对网络
抓取
是个新手。我在这段代码中找不到我的错误:import csv
url
= "https://www.
transfermarkt
.co.uk/spieler- response=requests.get(
url
) html_icerigi=response.con
浏览 0
提问于2018-12-02
得票数 2
1
回答
无法从rvest中的html_node提取href链接
、
、
、
、
代码如下: xpath <- as.character('/html/body/div[2]/div[11]/div[1]/div[2]/div[2]/d
浏览 19
提问于2021-03-11
得票数 0
回答已采纳
1
回答
如何修改Pandas的Read_html用户代理?
、
、
、
我试图通过网站使用pandas.read_html()函数从各种html表中
抓取
英文足球数据。示例:
url
= r'http://www.
transfermarkt
.co.uk/en/premier-league/gegentorminuten/wettbewerb_GB1.html'但是,这段代码会生成一个"ValueError:无效
U
浏览 0
提问于2013-09-22
得票数 4
回答已采纳
2
回答
表(‘Find_next’) BeautifulSoup
、
、
我会用
抓取
表的标题包含一个词 import requests } content = requests.get(
url
浏览 15
提问于2021-04-19
得票数 1
回答已采纳
1
回答
使用Python进行Web
抓取
,给出HTTP错误404:找不到
、
、
我正在尝试从一个名为
Transfermarkt
(我是一个足球迷)的网站上
抓取
数据,但是当我尝试提取数据时,它给了我HTTP错误404。这是我的代码:from bs4 import BeautifulSoup as soup my_
url
= "https://www.
transfermarkt
.com/chelsea-fc/leihspielerhistorie/verei
浏览 0
提问于2018-12-05
得票数 3
1
回答
解析传输市场链接
、
如何在PHP中从链接转移市场站点获取
ID
(末尾的数字)?例如$r = parse_
url
($
url
);
浏览 3
提问于2017-02-13
得票数 0
1
回答
Python无法加入基BeautifulSoup并刮掉截断的链接,
、
、
、
尝试用请求和BeautifulSoup修改来自FCPython的代码来对播放器数据进行网络
抓取
。我成功地
抓取
并跟踪了团队链接,然后为每个玩家链接得到一个截断的href,但是当我试图将站点基
url
加入到player链接href时,我会遇到问题。我不明白为什么在加入到截断的player链接之前,基本
URL
经常被重复多次。参见下面的代码和输出示例。
浏览 1
提问于2020-06-06
得票数 0
回答已采纳
2
回答
R,web
抓取
,rvest,
transfermarkt
数据
、
、
我试图为私人目的刮掉
transfermarkt
数据(没有商业用途)。我需要这一页底部的桌子。下面是代码:library(rvest)
url
= "http://www.
transfermarkt
.co.uk/transfers/transfertagedetailland_
id
_ab=&land_
id
_zu=&am
浏览 2
提问于2017-07-02
得票数 0
2
回答
使用Scrapy实现高效的数据循环
、
、
、
tbody/tr/td[11]/a/span/text()' self.base_
url
浏览 8
提问于2020-03-10
得票数 1
回答已采纳
1
回答
从
Transfermarkt
中
抓取
数据
、
、
我编写了一个从
Transfermarkt
.de中
抓取
数据的web
抓取
过程。 for p in range(1,5): page = "https://www.
transfermarkt
.de/transfers/transferrekorde/statistik/top/saiso
浏览 2
提问于2020-06-22
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券