这两个小时里,他按照作者的思路,使用了不同的参数和结构,但最终结果却与文中相差无几,远超现有的SVM方法!
不敢置信的他换了一组又一组数据,甚至使用了不同的任务来做测试,但越做结果就越让他心惊,因为其中几组参数下的多层感知机的表现,甚至比论文里的样例都要好!
作者甚至都没调参!
做完实验后再回头看论文,琼森的心态发生了翻天覆地的变化。
这个作者仿佛只是理所应当地在说,我们在感知机上的研究遇到了一点小问题,我看了看,大概问题在这里,所以我改了改,果然一下就改好了。
至于剩下的调参之类的苦力活,实在是太麻烦了所以懒得做,就留给你们吧!
似乎丝毫没有意识到,这个“小问题”,已经困扰了计算机领域三十年!
琼森茫然的盯着屏幕,突然想要给自己一巴掌,好让自己发现原来这是在做梦。
但这股冲动存在了一瞬便即消散,他还是激动而忠实地写下评审意见:
“完美的逻辑推论和无懈可击的理论过程!作者在论文中提出了一种简单却有效的多层感知机(MLP)方法,解决了困扰学界多年的异或问题,……”
“本人按照文中的思路进行复现,得出了相近的实验结果,实际上,我发现在XX和XX等参数设置下,MLP的表现可以进一步地提升,这一发现有力地支撑了本文的可行性……”
写罢,琼森仍旧感到恍如梦中,不敢相信可能是今年领域内最有突破性的成果,就这么轻易地出现在自己面前。
最终还是瘫靠在座椅上,无力地呻吟出声:
“WTF!这怎么可能……”
…………………………
“这怎么可能?!”
王浩中双手撑桌,看着自己电脑屏幕上显示的结果,不可置信地失声喊道。
虽然十分质疑徐毅在课上讲的内容,但王浩中还是遵从父亲“实践出真知”的家训,回家之后按照老师的课件复现了课上讲的模型。
结果,他随便搭建的MLP模型,在手写数字分类的数据集MNIST上,居然达到了98%的准确率!
当前在机器学习领域内最通用的SVM模型,在这个数据集上的准确率只有不到95%,别看两者差距好像不是很大,但是换一个角度,这代表着MLP的错误率比前者低了一半以上。
虽然SVM方向上有很多改良的算法,也可以达到接近甚至超越98%的数据,但别忘了,这只是他随手搭出来的框架,同样还有很大的进步空间!
为了保险起见,他甚至把这些内容找父亲做了确认,对待学术一向吹毛求疵的父亲在看到结果后都是一言不发,最后只留给他一句“好好听老师的课”,转身就走,
——这个成果绝对、完全、百分百地没有问题!
MLP的出现,绝对是世界级的突破!
但这样一个可以改变世界的发现,怎么会出现在面前的小讲师的手里,还被他轻飘飘地直接在一节小学期的选修课上这么随意的提出来?
如此重要的突破却诞生在如此不严肃的场合,王浩中感到一阵浓浓的荒谬感向自己传来,整个世界都不好了。
本站域名已经更换为m.adouyinxs.com 。请牢记。