用python编写一个本地论文管理器

介绍和引入

最近初学NLP相关的深度学习,下了很多论文,数量一多,发现论文管理是个问题。

首先论文数目一多,必须要按类别放到子文件夹下。但是某一篇论文,往往有多个主题。比如说某论文使用word2vec给短文本分类,那这篇论文既可以放在word2vec的目录下,也可以放在短文本的目录下,也可以放在分类的目录下。当你有天想去看了,往往又忘了是放在哪个子目录下了。再比如说,你下载了一些论文,下载的时候你知道这些论文的重要性(引用次数或者对项目的重要性)和紧急性(比如你三天之内都要看完)。但是当你把它放在某个子目录以后,当你有时间去看的时候,你忘了你当时最想看的那篇论文是什么了。

为此,我决定开发一个小工具来帮助我管理我的paper。我的思路是这样的:给每篇论文打上tag,标上重要程度和紧急程度。这样当我没有特定目的的时候,我就可以根据重要程度和紧急程度看小工具推荐的paper;当我想看某方面的paper时,我只需要查询下tag就可以找到相关主题的paper。

OK,有了思路,就可以着手实现了。

实现

实现这里不想讲太多,主要是设计程序的思路,源代码在文末给出,都有注释。

首先是图形化界面和命令行的选择,最终选择了命令行,开发速度更快,使用起来更直接。命令行的实现使用python自带的cmd模块实现。为了美化命令行的输出,参考使用了这里(http://blog.csdn.net/qianghaohao/article/details/52117082)的终端输出彩色化和第三方的terminaltables(https://pypi.python.org/pypi/terminaltables)。

数据存储选择sqlite,因为有数据的查询/插入/删除/更新操作,用数据库比文件要方便很多;而且sqlite是python自己支持的,不用再安装其他软件,属于轻量级的文件数据库,最适合这个任务。

安装

下载github(https://github.com/applenob/paper_manager)上的源码以后,使用python2.7,只需要:

pip install terminaltables

然后就可以输入:

python Manager.py

启动程序。

使用

基本的命令:

^---^ ^---^ ^---^ ^---^ ^---^ rec recommend the papers according to urgency and importance all show all the papers info tags show all tags sbt search by tags, like (sbt tag1 tg2) sbn search by id nums, like (sbn 1 2) edit edit one paper info by paper id, like (edit 1) path find path by paper id, like (path 1 2) open open paper to read by id, like (open 1) help help info quit exit the manager

演示

录入目录

启动程序后,首先按照提示,输入你的paper的根目录。如果输错了,可以把user_set.pkl删掉,重新启动程序即可。我这里程序已经保存路径,所以跳过。

输入新paper的数据

每次启动程序后,程序都会去扫描paper的目录(以及子目录),有扫描到新paper就会提示录入新paper的数据。

录入每篇paper的info.png

按照提示录入即可,分别是重要性(importance),紧急性(urgency),都是1-5的整数,还有所有tag(用空格隔开),以及这篇论文是不是读过了。

所有扫描到的新论文录入信息以后,就会出现欢迎界面:

欢迎界面.png

显示所有论文信息

输入:

all

all

显示录入的所有的tag

tags

tags

按照tag搜索paper

sbt tag1 tag2

sbt(search by tag)

sbt

按照id号获取论文

sbn num1 num2

sbn

按照id号获取论文路径

path num1 num2

path

修改特定paper的info

edit num

edit

如果看完了某篇论文,想改read从n为y,也可以直接使用edit命令。不修改的字段直接回车,数据不会丢失。

如:

只修改read

获取推荐

rec

rec

推荐规则是按照紧急程度降序,相同紧急程度按照重要程度降序,而且是read为n,就是没有标记读过的论文。

打开论文

open num

打开指定id的论文(使用系统默认的阅读器)。

获取帮助

help

help

退出

quit

quit

最后

github源代码地址(https://github.com/applenob/paper_manager)

这个工具只是用来方便自己的日常使用,一共只开发了两天的时间,有什么改进意见尽管提,但是不保证回去改哦~

原文发布于微信公众号 - 人工智能LeadAI(atleadai)

原文发表时间:2017-10-13

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏散尽浮华

基于Nginx+Keepalived的LB服务监控(邮件报警)

IDC两台机器上部署了Nginx+Keepalived主从模式的LB代理负载层,现在需要对LB进行每日巡检和服务监控,利用SendEmail邮件监控。

1893
来自专栏AI研习社

Github 项目推荐 | 用于多元时间序列的 Python 模块 —— Seglearn

Seglearn 是一个通过滑动窗口分割的机器学习多元时间序列的 Python 模块。它为特征提取、特征处理和最终估计提供一个集成的 Pipeline。

1732
来自专栏TensorFlow从0到N

TensorFlow从0到1 - 18 - TensorFlow 1.3.0安装手记

《TensorFlow从0到1》写到现在,TensorFlow的版本也从当时的1.1.0迭代到了8月初发布的1.3.0。可以预见在未来很长一段时间里,它仍会持...

3606
来自专栏磨磨谈

预估ceph的迁移数据量

我们在进行 ceph 的 osd 的增加和减少的维护的时候,会碰到迁移数据,但是我们平时会怎么去回答关于迁移数据量的问题,一般来说,都是说很多,或者说根据环境来...

1312
来自专栏Golang语言社区

一致性hash算法原理及golang实现

这里存在一种场景, 当一个缓存服务由多个服务器组共同提供时, key应该路由到哪一个服务.这里假如采用最通用的方式key%N(N为服务器数目), 这里乍一看没什...

1572
来自专栏性能与架构

分方式缓存常用的一致性hash是什么原理

一致性hash是用来解决什么问题的? 先看一个场景 有n个cache服务器,一个对象object映射到哪个cache上呢? 可以采用通用方法计算objec...

3749
来自专栏AI科技大本营的专栏

十图详解TensorFlow数据读取机制(附代码)

作者 | 何之源 在学习TensorFlow的过程中,有很多小伙伴反映读取数据这一块很难理解。确实这一块官方的教程比较简略,网上也找不到什么合适的学习材料。今天...

39811

Ray:AI的分布式系统

随着机器学习算法和技术的进步,越来越多的机器学习应用程序需要多台机器,而且必须利用并行性。但是,在集群上进行机器学习的基础设施仍然是专门设置的。尽管针对特定用例...

49610
来自专栏文武兼修ing——机器学习与IC设计

P2P接口串行FIR设计

配置接口使用寄存器组实现,掉电丢失,因此每次使用之前需要进行配置FIR参数,配置接口时序如下所示:

1504
来自专栏一枝花算不算浪漫

集群扩容的常规解决:一致性hash算法

1812

扫码关注云+社区

领取腾讯云代金券