前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >清华NLP博士生在读期间狂发100多篇论文,这啥情况...

清华NLP博士生在读期间狂发100多篇论文,这啥情况...

作者头像
zenRRan
发布2022-08-26 15:56:47
1.2K0
发布2022-08-26 15:56:47
举报
文章被收录于专栏:深度学习自然语言处理

每天给你送来NLP技术干货!


 本文募格学术撰写。参考资料:兰大就业、中国新闻周刊、知乎、武同学学术主页。

博士生在读期间发表100多篇论文,其中以第一作者发表了67篇。平均每年发30多篇?!

近日,知乎上一则话题「如何看待清华大学博士生武某某在读期间发表100多篇论文?」引起热议。

毕竟这发文的速度,也太恐怖了....

没有感情的发文机器?

根据知乎提供的博士生武某某的学术主页显示。

目前读博士三年级的武同学,已经发表了108篇论文。

包括arXiv的一作论文,武同学就读清华大学期间,以第一作者发表了67篇论文。

其中,CCF A类 推荐会议/期刊共计22篇;CCF B类 推荐会议/期刊共计9篇;CCF C类推荐会议/期刊共计4篇;Nature子刊共计3篇,谷歌学术引用2100余次!

光拿2022年举例,根据谷歌学术显示,武同学在2022年已经公开了26篇论文,其中16篇为第一作者。

随手一截给大家感受一下

这发文速度,平均每个月发表2篇论文,10多天就写出一篇paper。

对比一下普通人的发文时间,从做数据、到写、到投稿、到返修、再到发表,能1年发1篇都算非常高效。

只能说武同学这发文速度快的令人咂舌

被质疑“灌水”

如此快速的文章发表,使得不少人质疑武同学顶会灌水。

据知乎上电子系相关专业的答主表示,在武同学的论文里,论文代码很少开源或者就建一个空仓库。并且复现出来的效果并没有论文实验结果展示的那么好。

我没有证据说你是造假的,但是你要自证啊,咱们好好开源个代码行不。你这样做,有啥公信力?40%是空仓库,40%是一个jupyter文件!我都怀疑数据是“伪造的”。好好开个源不行么?

知乎上关于论文的一些讨论

简单的说,就是这些论文无法让同行去验证、复现。因此,灌水的嫌疑就非常大,为了发论文而发论文。

论文灌水频发令人不安

近几年,因为发表论文数量惊人而被质疑灌水的科研人,太多了。

几乎每年都会有类似的讨论登上热榜。

2020年,一南邮的老师桂某,在三年半内发表了300多篇IEEE论文。

2021年,一二本学生连发10篇SCI直博香港城大。

2022年,兰大一本科生狂发 31 篇论文,其中第一作者发表SCI论文9篇,中文核心期刊论文3篇并获优秀论文奖2项。

虽然他们研究的领域都不相同,但经过对比,这些论文的共同点就是“缺乏理论深度,多篇论文idea类似,文内数据不明朗”。

也就是说这些工作对研究领域的发展起的作用微乎及微,反倒是像用一个论文模板套出来的一样。

其实,关于用论文模板发文这件事,早在2020年,因为石墨烯随便掺杂就能发文章,就有学者故意在石墨烯中掺杂鸟屎发文,以此来讽刺论文灌水现象。

自从石墨烯在2004年被发现以来,它就被广泛地应用到各个领域中,传感器,晶体管,柔性显示屏,海水淡化,航空航天,新能源材料,电催化剂等等,只要你能想起来的领域基本上都有石墨烯的身影。

更神奇的是,石墨烯甭管掺杂的是吸电子的还是给电子的元素,结果都是催化性能好好好!!!

于是,你只要用不同的石墨烯合成手段结合各种元素单掺杂,混合掺杂,SEM,XPS甚至同步辐射等表征,再加上电化学性能的提升,提升一下意义,拔高段位,就能发表一篇文章。

但这种文章毫无创新性和价值,纯粹是为发而发。

最后,有人看不下去了,选择用鸟屎来作为原料之一合成多元素掺杂的石墨烯,与常规合成方法比较性能并成功发表。作者证明了鸟屎处理的石墨烯确实使石墨烯比非掺杂石墨烯更具有电催化作用。

这篇论文名字起得也非常有意思,“Will Any Crap We Put into Graphene Increase Its Electrocatalytic Effect?”东北话翻译过来就是“啥破烂玩意都能提升石墨烯催化性能?”

不管承不承认,在某些研究领域,论文模板确实是存在的。

这样回头再看这些论文,小募只能说:“懂的都懂”

科研与现实的冲突令人深思

尽管灌水现象令人不齿,但不可否认的是,仍然有相当一部人对灌水的态度是“我行我也灌。”

这主要还是和目前的科研评价体系相关,尽管大家高喊「破四唯」已久。

但真到了评职称、找工作的时候,论文还是最直观的敲门砖。

这就让不少学生面临一个选择「为了科学,不该灌;为了生存,多灌多得」

就拿上述被举例的发表10篇SCI全奖直博香港城市大学的本科生万同学来说。

在被质疑灌水后,其本人亲自下场回应表示:

个人愿意承认自己10篇论文的整体水平很低,有「灌水」的嫌疑。

但这并不代表自己不热爱科研,他自己也想在读博期间做出真正hard core的成果。

不过,尽管初心出于诸多理由。

但需要明确的是,灌水本身并不是一个值得倡导的行为。

花费大量的时间和精力,甚至是花费了大量的国家经费,只写出一篇没有价值和意义的论文,或许在眼前他能带给你好处,但科研圈是有记忆的,顶刊留名很多时候对于科研人来说是军功章,随便水综述,水低水平期刊只会影响自己的学术声誉。

做修修补补的实验,发边边角角的文章,对科研的进步没有丝毫意义!

真正的科研和科学家不应该是搞一些短、平、快的项目,而是应该沉淀下来,像一个工匠一样精耕细作,慢慢雕琢出来一幅耐人寻味的作品。

如果大肆吹捧论文数量而忽略质量,对那些脚踏实地扎扎实实出成果的科研工作者,将会是真正的伤害。


📝论文解读投稿,让你的文章被更多不同背景、不同方向的人看到,不被石沉大海,或许还能增加不少引用的呦~ 投稿加下面微信备注“投稿”即可。

最近文章

EMNLP 2022 和 COLING 2022,投哪个会议比较好?

一种全新易用的基于Word-Word关系的NER统一模型

阿里+北大 | 在梯度上做简单mask竟有如此的神奇效果

ACL'22 | 快手+中科院提出一种数据增强方法:Text Smoothing

代码语言:javascript
复制

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

代码语言:javascript
复制
整理不易,还望给个在看!
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-07-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 其中,CCF A类 推荐会议/期刊共计22篇;CCF B类 推荐会议/期刊共计9篇;CCF C类推荐会议/期刊共计4篇;Nature子刊共计3篇,谷歌学术引用2100余次!
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档