展开

关键词

文献下载网站汇总

language=en_US 文献部落:http://459.org/ 大木虫学术导航:http://www.4243.net/ 学术小镇:http://www.sci-hub.ac.cn/ 小鲸鱼文献:http://www.9312.net/#/ 柠檬文献:http://sci-hub.fan/ 龙猫学术导航:http://www.6453.net/ SciHub网址导航:http ://489.org/ 格桑花学术导航:http://20009.net/ 大木虫文献翻译:http://www.5628.org/ 百川文献翻译神器:http://www.bcwxfy.com http://www.yidu.edu.cn/ 库问搜索:http://www.koovin.com/ 中国科技论文在线:http://www.paper.edu.cn/ 国家哲学社会科学文献中心

22920

爬虫下载baker的文献

Baker是蛋白质设计领域顶尖的科学家,最近老板让搜集一下他的全部文献,就使用爬虫技术全部收集了。 9次,没得办法,我只能开30多个进程一起下载了,每个进程下载9篇文献 defsplit_list(pdflist, num): #用于拆分列表,主要使用多进程处理 b = [pdflist [i:i+num] for i inrange(0,len(pdflist),num)] return b #对于每个在list1中的文献链接,直接下载 defget_list_pdf(list1 ): for i in list1: wget.download(i) #多进程,创建进程池下载 defmulit_get_pdf(urllist,num,core): ,开启20个进程 mulit_get_pdf(pdflist,9,20) #最后下载了287篇,我找时间传到百度云上

17710
  • 广告
    关闭

    开发者专享福利,1988元优惠券限量发放

    带你体验博客、网盘相册搭建部署、视频渲染、模型训练及语音、文字识别等热门场景。云服务器低至65元/年,GPU15元起

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    python: 自动下载sci-hub文献

    科研神器sci-hub下载文献简单易用,但是仍然需要手动下载,如果待下载文献太多,就不那么友好了,最好可以自动批量下载,而这个正好是python requests库所擅长的。 当我们输入文献名到sci-hub搜索框点击查询之后,可以发现页面自动跳转到了文献详情页,详情页的页面左侧是下载按钮和文献注释、连接等信息,右侧是自动载入的pdf版本的文献。 所以最终文献下载的思路就是,通过对https://sci-hub.se/构造一个post请求,页面自动重定向到文献详情页,然后通过解析详情页中pdf的源地址来下载。 : 完整代码实现 将上述思路规整一下,既可以用于批量下载文献。 papers用于指定下载文献,其中第四篇文献设置为“Error paper name”,以作为一个错误测试,出错的文献名将会保存在log.txt文件中。

    46030

    详解 Python 批量下载文献情报

    了解一个研究方向和相关研究领域的大佬,收集文献是必不可少的操作。 作为一名生信人,我们可以通过编程来自动化实现以上流程,今后只需要一行代码,研究领域情报尽在囊中。 运行环境准备 1. Biopython 安装 在终端执行 pip install biopython 自动化下载文献资料 1. 基础脚本 接下来通过BioPython提供的接口来实现快速的文献情报的收集下载。 下面例子是利用PubMed数据库来查询所有关于小鼠的文献资料,为了展示基础的流程,这里采用逐条下载的方式。 Entrez.read(hd_esearch) idlist = read_esearch["IdList"] print ("Total: ", read_esearch["Count"]) # 用 efetch下载 Count"]) webenv = read_esearch["WebEnv"] query_key = read_esearch["QueryKey"] # 这里演示设定total为 10, 实际文献数量不止这么多

    68240

    SCI-HUB文献下载工具

    在科研学习的过程中,我们难免需要查询相关的文献资料,而想必很多小伙伴都知道SCI-HUB,此乃一大神器,它可以帮助我们搜索相关论文并下载其原文。 接下来是使用方式:第一种方法是单篇文献下载,你可以输入论文的题目在第一个框框中,然后选择一个保存的目录,点击开始按钮注入灵魂,等待进度条跑满,文献下载下来了,是不是很 so easy呢 第二种使用方法是批量下载 ,可以把需要下载文献题目写在一个txt文件中去,比如这样: ? 提供的两种下载方法应该总有您喜欢的吧哈哈(虽然可能有小伙伴想用doi下载哈哈) 最后附上程序的网盘链接地址,已经封装成.exe可执行文件(Windows平台)欢迎大家使用,希望对大家得科研工作有帮助。

    43310

    用于海量文献管理和批量参考文献管理的工具下载

    7820

    如何下载文献全文&快速找到文献DOI号【史上最强总结】

    根据实际使用情况,这款软件可以下载到绝大部分文献的全文,但也有少数用户在使用过程中遇到了一些小问题,例如少数比较新的文献可能无法下载,有些文献不知道怎么找到 DOI 号,少数文献没有 DOI 号只有 PMID 一般只有唯一的一条检索结果,点击这个链接可以跳转到这篇文献的出版商发布页面,有的时候检索结果后面会直接出现文献 PDF 全文的下载链接,这时候不要犹豫,直接点击即可下载到 PDF 全文。 现在,越来越多的文献在谷歌学术检索页面中直接有下载全文链接。 对于少数没有全文下载链接的文献,直接点击该条检索结果即可进入出版商发布页面。 开始的,得到 DOI 号之后就可以使用 SciHub Desktop 来下载文献啦! 《Science》等期刊的文献的 DOI 一般会直接给出来。 再点击链接就会自动打开文献的出版商发布页面,然后就可以找到其 DOI 号了或者直接下载

    32.2K170

    中文文件下载

    2.中文文件下载: 假 如你的文件名是英文的话,jspsmartupload就可以胜任。但如果你的文件名是中文的话,就只能用下面的方法。这时jspsmartupload 是不能胜任的。 以下例子能下载中文文件名(在firefox,ie8,360都通过测试, eclipse内置浏览器不行): 例 1.2.1 <%@ page contentType="text/html; charset

    15000

    java 文件下载中文表名,中文内容

    InputStream fis = new BufferedInputStream(new FileInputStream(filePath)); // 以流的形式下载文件。

    9940

    spaCy 2.1 中文模型下载

    中文版预训练模型包括词性标注、依存分析和命名实体识别,由汇智网提供 1、模型下载安装与使用 下载后解压到一个目录即可,例如假设解压到目录 /models/zh_spacy,目录结构如下: /spacy/ for token in doc: print(token.text) spaCy2.1中文预训练模型下载地址:http://sc.hubwiz.com/codebag/zh-spacy-model / 2、使用词向量 spaCy中文模型采用了中文维基语料预训练的300维词向量,共352217个词条。 Universal Dependency的中文语料库进行训练。 Universal Dependency的中文语料库进行训练。

    2.9K20

    利用python下载scihub成文献为PDF操作

    scihub是科研利器,这就不多说了,白嫖文献的法门,一般采用的是网页或者桌面程序,一般都会跳转到网页进行加载出文献,但是这很不方便,毕竟全手动,这里无意中看到一个写好的pip工具scihub2pdf ,于是试一下它手动威力,如果这能够成功,也就是我们以后如果想批量下载也是没问题的。 ,更牛的是可以直接使用论文标题进行下载,这就理解为啥这里面需要想依赖phantomjs了,这玩意就是爬虫用的。 还可以下载arxiv上的论文,比如 [root@VM_0_9_centos ~]# scihub2pdf arxiv:2003.02355 下载时间都是有点慢的,要等一会才能成功,因为都是访问的国外的网站 以上这篇利用python下载scihub成文献为PDF操作就是小编分享给大家的全部内容了,希望能给大家一个参考。

    78351

    python下载万方数据库文献

    详细的说明万方数据库,文献下载的准备 终于根据爬虫获取 js 动态数据 (万方数据库文献下载) 一文提示,我提取出了动态的url 获取下载的链接的url def getdownurl(url): get_html(geturl).text print() sucurl=re.findall(re1,text) print(sucurl) return sucurl[0] 下载所有的 0 for page in pages: allurl=get_url(page) for url in allurl: #得到每一篇文献的信息 条结果' html=get_html(url).text if html==None: print("没有文献") return ; 0 for page in pages: allurl=get_url(page) for url in allurl: #得到每一篇文献的信息

    80930

    一键免费下载外文文献的方式

    1、外文文献下载入口地址: www.sci-hub.cc ?---- 2、下载体验效果 ? 细节很到位,每篇文献都以发布时间结尾命名。 3)正如sci-hub.cc的宗旨一样“ help to remove all barriers in the way of knowledge”,真心解决了科研人求外文文献的难题。 4)此时百度学术还在使用求助、扫码的方式限制篇数下载文献,真是弱爆了。! ?----

    1.1K90

    英文文献的5种下载方式

    文章题目 DNA methylation analysis in plants: review of computational tools and future perspectives 文献是读研读博生活中必不可少的一部分 本篇文章以开头提到的文献为例简要记录自己英文文献下载方法,希望可以帮助到有需要的人。 中文论文 因为自己在学校内,所有的中文论文基本在知网都可以下载到。 有的文章通常可以直接在官网下载pdf版本的论文。 第二选择 如果在官网不能够下载,这时候需要借助两款插件:Unpaywal和Kopernio - powered by Web of Science Unpaywal的简单介绍 这个免费下载论文的小插件 Kopernio 使用的介绍 Kopernio | 获取全文 Unpaywal安装好后如果打开文章的官网,屏幕右侧会出现一个小图标:绿色代表文章可以下载;灰色代表不能下载;图标处于绿色时直接点击就可以连接到文章的

    1.4K20

    生物信息中的Python 04 | 批量下载基因与文献

    我想你的心情不会和下载一条序列时那么平静,那么,接下来通过BioPython提供的接口来实现快速的自动化序列下载。 一、自动获取氨基酸序列数据 1. 利用 Nucleotide 数据库来查询所有 oct4 基因的序列数据,为了展示基础的流程,这里采用逐条下载的方式 from Bio import Entrez,SeqIO # 参数设置 Entrez.email read_esearch = Entrez.read(hd_esearch) # 这里我们只取前两个序列 ids = read_esearch["IdList"][:2] # 用得到的 id 列表去下载每一条 webenv, query_key=query_key) records = hd_fetch.read() res_file.write(records) 二、自动获取参考文献 利用PubMed数据库来查询所有关于小鼠的文献资料,为了展示基础的流程,这里采用逐条下载的方式 from Bio import Entrez from Bio import Medline # 参数设置

    21110

    万方数据库,文献下载的准备

    ###后来文献下载任务完成了 ,相关的代码,细节,介绍看这篇文章 https://www.jianshu.com/p/134530b46a65 想批量下载万方数据库的文献,看了一下其html源码不好玩啊 其一篇文献下载的链接. ,起下载事件为。 总共的页数已经得到了,但是js卡注了,不知道怎么生成相关的下载hrfe。已经根据这个文件,下载下来相关的pdf文档了。 Python学习日记12|用python3多进程批量下载pdf文件 用Python和selenium下载pdf文件 浏览器下载文件时资源链接的获取方法 用python爬虫批量下载pdf 使用python

    92350

    ​除了SCI-hub, 还有哪些实用的文献下载网站?

    这个导航首页集合了“谷歌学术”、“微软学术”、“百度学术”、“OA文献库”(OALib)“sci-hub”“CNKI”等常用网址 3 Library genesis Library genesis是俄罗斯开发的网站 ,它通过镜像的方式收录了sci-hub的全部文献,并且收录了很多中文、外文电子书籍,大概80万本电子书 提供四个网址: http://gen.lib.rus.ec/ http://libgen.io/ iData平台上所有信息均为公开发表的学术文献,由学者自由上传,注册账号后,提供有限的免费浏览、下载服务。 中文期刊比较全。另外有CNKI镜像搜索,在宿舍也可以下载论文了。 这个搜索引擎能检索论文文献免费的有80%,总数大约有170万份。

    1.7K20

    相关产品

    • 智聆口语评测(中文版)

      智聆口语评测(中文版)

      腾讯云智聆口语评测(中文版)是腾讯云推出的中文口语评测产品。支持从儿童到成人全年龄覆盖的普通话语音评测,支持字词、句子等多种模式,支持发音准确度(GOP),流利度,完整度等全方位打分机制,专家打分相似度 95% 以上。

    相关资讯

    热门标签

    活动推荐

    扫码关注腾讯云开发者

    领取腾讯云代金券