半自动批量下载IEEE文献

阅读: 评论:0

半自动批量下载IEEE文献

半自动批量下载IEEE文献

因为一直在外边联合培养,无法使用学校的数据库,所以下载文献一下子从最简单的事情变成最复杂的事情。
首先想到的方法是学校放一台电脑,然后开teamviewer,远程操控,但公司和学校的双重烂网速让这件本来很简单的事情变得困难重重。
所以想到了绕个捷径通过。奔跑着歌颂一下这个俄罗斯大神搭建的网站,它可以让所有人通过该网站下载到大部分文献。
比如我要下载这篇文献,/,将网址复制到该网站,就会生成该论文的pdf,点击保存一下即可,仔细看一下,其实网址有了稍微一丁点变化,/,加上了.sci-hub,在网页审查一下元素发现下载地址(后缀名是.PDF)的那个就在这里摆着

这就简单了,首先将你在ieee官网上想要下载的多个文献的网址复制下来,每一个网址后面加上.sci-hub,解析每一个新的网址,寻找.pdf的链接,获取真实的下载地址。
code:

#第一次变换地址
lines=open('d:/').readlines()
fp=open('D:/', 'w')
for s in lines:fp.write( s.replace('org','org.sci-hub'))   
fp.close()
#解析出真正的下载地址
import re
quest
# ------ 获取网页源代码的方法 ---
def getHtml(url):page = quest.urlopen(url)html = ad()return html
f=open('d:/')
for line in f:html = getHtml(line)html = html.decode('UTF-8')reg = r'src = "(.*?.pdf)"'PDFre = repile(reg);PDFlist = re.findall(PDFre, html)print(PDFlist)
f.close()

使用方法,新建一个txt文档,将要下载的文献地址复制过来

运行程序,就会生成真正的下载链接

复制一下打开迅雷,直接批量下载了

如果没有迅雷,可以使用python实现wget完成下载,加入代码

import sys,urllib
def reporthook(*a): print(a)
for url in sys.argv[1:]:i=url.rfind('/')file=url[i+1:]print(url,'-->',quest.urlretrieve(url,file,reporthook)

enjoy it!
最后借用互联网之子亚伦·斯沃茨的一句质疑:科研,如果用的是纳税人的钱,为什么最后的成果不能被我们纳税人自由地获取?获利的却是出版商呢?

本文发布于:2024-02-05 04:01:13,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170723600162888.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:批量   文献   IEEE
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23