清华校友、香港科技大学准博士ICCV顶会论文被爆公然抄袭!去年CVPR也是抄的

2021-08-17 12:20:来源:创事记 原文链接:点击获取

来源:新智元

不是吧?港科大准博士生发表的顶会论文竟然是抄的?

而且抄袭对象还是另一篇顶会论文?

近日,眼尖的网友发现两篇分别发表在ICML 2021ICCV 2021两大顶会的论文有着惊人的相似之处!

ICML2021上发表的论文

ICCV2021上发表的论文

Reddit上有网友跑去了「抄袭者」的网站上看了作者的资料,发现这位作者已经发表过12篇顶会论文,而且还是准博士生,不禁怀疑是不是一直都有这样的操作……

有人模仿我的脸,有人模仿我的……论文?

推特上一位眼尖的网友发现了两篇顶会论文几乎如出一辙,网友非常细心地对比了两篇论文。

首先是论文的公开时间

「正主」ICML论文题为Momentum residual neural networks,作者是Michael Sander, Pierre Ablin, Mathieu Blondel and Gabriel Peyré。

今年2月15日首次上传至Arxiv,7月17日开源代码,7月22日发布论文最新版。

论文地址:https://arxiv.org/abs/2102.07870

开源代码:https://github.com/michaelsdr/momentumnet/

「山寨」ICCV论文题为m-RevNet: Deep Reversible Neural Networks with Momentum,作者是Duo Li(李铎)和Shang-Hua Gao(高尚华)。

今年8月12日上传至Arxiv,而ICCV 2021论文收录的截止时间为3月17日

论文地址:https://arxiv.org/abs/2108.05862(文章现已被删除)

抄袭还是一项十分严重的指控,我们先来仔细对比一下两篇论文。

雷同一:提出想法相同

两篇文章都提出了替换残差网络的前向方程方法,也同样讨论了这种方法的好处:由于ODE机制中的动量,可逆性和更大的表征容量减少了内存负载。

其中,利用

的动量方程取代残差网络的前向方程

雷同二:图表相似

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

雷同三:表格相似

表格中有3列内容是相似的:

closed form inversion = analytical reversal,

same parameters = architecture preservation

unconstrained training = end-to-en optimization.

而ICCV论文中只是添加了ResNet基线

ICML论文

ICCV论文

雷同四:完全相同的初始数据集,四个嵌套环

两篇论文都引用了一篇前人的研究(https://arxiv.org/abs/1904.01681) ,在这篇引文中,作者使用了2个嵌套环。

以前从来没有人用过四个嵌套环作为说明。

ICML论文

ICCV论文

雷同五:主要贡献的公式相似

ICCV只是把ICML中的临界参数「gamma」换成了「1-mu」

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

雷同六:文内引用相同

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

两篇文章同样以Maclaurin等人的算法作为关键的应用。

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

雷同七:命题和证明相同

只不过符号略有变化,ICCV将时间导数表示为

,而ICML中为

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

雷同八:论文贡献列表相似

两篇论文的贡献列表都是大同小异,但很明显能够感觉到ICCV论文是「洗稿」的。

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

雷同九:微积分方程完全相同

ICCV中的例1基本上就是修改了一下符号,微积分方程本质上完全相同。

另外,两篇文章解决方案中的顺序也完全相同。

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

雷同十:同样是得到两个嵌套环的启发

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文

这两篇论文说一样吧,又不是完全一样;要说是偶然,这得多巧合才能「偶然」出十个雷同点。

瞬间成为热点

论文抄袭事件在Reddit上已经有330个赞,而知乎上的相关话题也已经有100多万次浏览

兹事体大,不仅ICCV作者撤回了Arxiv上的论文,他的导师也在知乎上发文致歉,表示自己有「不可推卸的督导不严的责任」

此外,ICCV论文二作高尚华同样也在知乎上澄清,对涉事文章与ICML论文极高相似度「感到震惊和诧异」

二作作为涉事论文的改稿人,第一时间要求一作提供相关工作证据,但一作却声称数据已损坏

面对这么可疑的解释,二作决定向ICCV反映相关情况,并要求撤稿

二作在知乎上的澄清与道歉

二作向ICCV大会发送要求撤稿的邮件

深扒论文作者——李铎

凡事都讲证据,面对「抄袭」这一指控,网友们也是非常小心谨慎,避免误伤。

李铎现就读于香港科技大学计算机科学与工程系,硕士二年级,2019年获得清华大学自动化系工学学士学位。

可以看出,李铎本人的学历背景还是很优秀的。

个人主页:https://web.archive.org/web/20210816025239/http://duoli.org/

李铎发表论文一览

然而没想到的是,这两篇论文的作者学术背景也成为了这个指控的证据。

那ICML论文作者又是何方神圣?

知乎上有匿名网友深扒了两篇文章的作者学术背景,对比了两人的研究内容。

随后,还有网友补充了被抄袭论文一作的学术背景。

这样一对比,两位作者的水平就高下立判了。

抄袭惯犯?

我们的这位一作在2020年就给CVPR投稿了一篇「照搬」2019年CVPR的文章。

CVPR 2019接收论文,作者来自清华大学

论文地址:https://arxiv.org/abs/1906.00675

CVPR 2020接收论文,作者李铎。

论文地址:https://arxiv.org/abs/2003.10739

连母校的同学都不放过……

「其通篇向人们展示了如何包装出一篇顶会论文!实在是触目惊心,看得我头皮发麻。」

知乎回答:https://www.zhihu.com/question/480075870/answer/2064933570

李铎导师同时也在知乎上表明,他们正在深入调查李铎过去发表的论文,后续会根据调查结果严肃处理,并于近日公布相关处理措施。

参考资料:

https://www.reddit.com/r/MachineLearning/comments/p59pzp/d_imitation_is_the_sincerest_form_of_flattery/

https://michaelsdr.github.io/momentumnet/plagiarism/

https://twitter.com/PierreAblin/status/1426899071495819265

https://www.zhihu.com/question/480075870

https://web.archive.org/web/20210816025239/http://duoli.org/

ICML 2021 Momentum residual neural networks:https://arxiv.org/abs/2102.07870

ICCV 2021 m-RevNet: Deep Reversible Neural Networks with Momentum:https://arxiv.org/abs/2108.05862

CVPR 2019 Deeply-supervised Knowledge Synergy:https://arxiv.org/abs/1906.00675

CVPR 2020 Dynamic Hierarchical Mimicking Towards Consistent Optimization Objectives:

https://arxiv.org/abs/2003.10739

作者:佚名