返回第四章 What the fxxk!这怎么可能?(2 / 2)是觉皇不是教皇首页

关灯 护眼     字体:

上一页 目录 下一章

这两个小时里,他按照作者的思路,使用了不同的参数和结构,但最终结果却与文中相差无几,远超现有的SVM方法!

不敢置信的他换了一组又一组数据,甚至使用了不同的任务来做测试,但越做结果就越让他心惊,因为其中几组参数下的多层感知机的表现,甚至比论文里的样例都要好!

作者甚至都没调参!

做完实验后再回头看论文,琼森的心态发生了翻天覆地的变化。

这个作者仿佛只是理所应当地在说,我们在感知机上的研究遇到了一点小问题,我看了看,大概问题在这里,所以我改了改,果然一下就改好了。

至于剩下的调参之类的苦力活,实在是太麻烦了所以懒得做,就留给你们吧!

似乎丝毫没有意识到,这个“小问题”,已经困扰了计算机领域三十年!

琼森茫然的盯着屏幕,突然想要给自己一巴掌,好让自己发现原来这是在做梦。

但这股冲动存在了一瞬便即消散,他还是激动而忠实地写下评审意见:

“完美的逻辑推论和无懈可击的理论过程!作者在论文中提出了一种简单却有效的多层感知机(MLP)方法,解决了困扰学界多年的异或问题,……”

“本人按照文中的思路进行复现,得出了相近的实验结果,实际上,我发现在XX和XX等参数设置下,MLP的表现可以进一步地提升,这一发现有力地支撑了本文的可行性……”

写罢,琼森仍旧感到恍如梦中,不敢相信可能是今年领域内最有突破性的成果,就这么轻易地出现在自己面前。

最终还是瘫靠在座椅上,无力地呻吟出声:

“WTF!这怎么可能……”

…………………………

“这怎么可能?!”

王浩中双手撑桌,看着自己电脑屏幕上显示的结果,不可置信地失声喊道。

虽然十分质疑徐毅在课上讲的内容,但王浩中还是遵从父亲“实践出真知”的家训,回家之后按照老师的课件复现了课上讲的模型。

结果,他随便搭建的MLP模型,在手写数字分类的数据集MNIST上,居然达到了98%的准确率!

当前在机器学习领域内最通用的SVM模型,在这个数据集上的准确率只有不到95%,别看两者差距好像不是很大,但是换一个角度,这代表着MLP的错误率比前者低了一半以上。

虽然SVM方向上有很多改良的算法,也可以达到接近甚至超越98%的数据,但别忘了,这只是他随手搭出来的框架,同样还有很大的进步空间!

为了保险起见,他甚至把这些内容找父亲做了确认,对待学术一向吹毛求疵的父亲在看到结果后都是一言不发,最后只留给他一句“好好听老师的课”,转身就走,

——这个成果绝对、完全、百分百地没有问题!

MLP的出现,绝对是世界级的突破!

但这样一个可以改变世界的发现,怎么会出现在面前的小讲师的手里,还被他轻飘飘地直接在一节小学期的选修课上这么随意的提出来?

如此重要的突破却诞生在如此不严肃的场合,王浩中感到一阵浓浓的荒谬感向自己传来,整个世界都不好了。

本站域名已经更换为m.adouyinxs.com 。请牢记。
『加入书签,方便阅读』

上一页 目录 下一章