首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >从URL下载所有PDF

从URL下载所有PDF
EN

Stack Overflow用户
提问于 2018-12-18 01:35:01
回答 1查看 873关注 0票数 2

我有一个网站,有数百个PDF。我需要遍历并下载每个PDF到我的本地机器。我想使用rvest。尝试:

代码语言:javascript
运行
复制
library(rvest)

url <- "https://example.com"

scrape <- url %>% 
  read_html() %>% 
  html_node(".ms-vb2 a") %>%
  download.file(., 'my-local-directory')

如何从链接中抓取每个PDF?download.file()不工作,我也不知道如何获取每个文件。我只是得到了这个错误:

编码中出现编码错误(x,

=doc_parse_raw,base_url = base_url,as_html = as_html,:xmlParseEntityRef: no name 68

EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53820356

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档