您当前的位置:中国IT科技网资讯正文

LeCun出大招马库斯放狠话机器学习前驱隔空互怼

放大字体  缩小字体 2019-12-29 03:02:15  阅读:3461+ 来源:量子位 作者:责任编辑NO。卢泓钢0469

(原标题:神仙打架激辩深度学习:LeCun出大招,马库斯放狠话,机器学习前驱隔空“互怼”)

AI学术圈,又吵了起来,图灵奖得主、年近古稀的机器学习奠基者、唱衰AI的代表人物等等,纷繁下场“开怼”。

相关话题在Twitter上转发过千,点赞数万,局面极端剧烈。

究其源头,起于一个直击魂灵的问题:什么是深度学习

什么是深度学习?

你可能会很自然地想起那段再了解不过的界说:

深度学习(DL)是一类机器学习算法,运用多个层逐渐从原始数据中提取更高层的特征。

——维基百科

有点懵逼?

现在,有人给出了更明晰的说法,出手者不是旁人,正是深度学习三巨子之一,图灵奖得主Yann LeCun。他说:

有些人好像依然对什么是深度学习感到困惑。以下是深度学习的界说:深度学习便是构建由参数化功能模块构成的网络,并使用根据梯度的优化办法来进行样本练习。

与此界说正交的是学习范式:强化学习、监督学习或自监督学习。不要说“深度学习无法做X” ,假如你真实想的是“监督学习需求太多数据所以无法做X”。

关于其扩展形状(动态网络、可微编程、图神经网络等),网络结构能够依数据动态改变。

这话之后还没完,他又一口气放出了5个排比句,对当时深度学习范畴呈现的“术语”进行了解读:

甭说“DL对对立样本很灵敏”,你真实的意思是“受监督的卷积神经网络对对立样本很灵敏”。

甭说“DL存在成见”,你真实的意思是“纯监督学习再现了练习数据中的成见”。

甭说“DL无法处理组合性”,你真实的意思是“此特定体系结构不能推行到许多曾经不行见的部件组合”。

甭说“DL不做逻辑推理”,你真实的意思是“一个简略的前馈神经网络不能做长链的推理”。

甭说“DL不做因果推理”,你真实的意思是“一个一般的、有监督的神经网络不会自发地发现因果关系。”

原本是对自己去年初提出的观念——“深度学习不再是盛行概念”进行了一次回应。

但谁能想到,推文一出,各路大神纷繁出头宣布观念,展开了剧烈的评论。

一场大型“互怼现场”就此拉开序幕。

机器学习奠基人下场激辩马库斯开杠LeCun

第一批下场的,有DeepMind的高档研讨科学家Danilo Jimenez Rezende。

他点赞认同,对Yann LeCun的观念进行了扼要总结:

深度学习是用于构建杂乱模块化可微函数的东西的调集。评论深度学习能做或不能做什么毫无意义。真实有意义的是怎么练习它,以及怎么把数据喂给它。

但闻名AI“杠精”——马库斯看到这条推特,当场不干了:

假如不能评论一种办法能够做什么不能做什么,那它还算是一种办法?

推重深度学习的人现在为了不被批判,总是在尽可能的防止提出详细、可验证的建议。这是有一个很风险的信号。

机器学习前驱下场反击:深度学习是办法论

对此,机器学习范畴奠基人之一、AAAI前主席Thomas G. Dietterich敏捷下场反击:

深度学习原本就不是一种办法,而是办法论。是一种研讨途径。

成果,这一争辩分会场又炸出了另一位大佬——机器人教父Rodney Brooks。

他说:啊,所以深度学习是AI仍是AGI哇?仍是说人能想到的未来科技都根据深度学习?

这一讲话好像又点着了马库斯新的战役热心:

RodneyBrooks说得对啊!深度学习社区现在给自己的定位便是一切未来科技都将归功于DL,但他们并没有真实致力于任何事情。

等着吧,我立刻就会火力全开。

面临这样的“寻衅”,Dietterich表明图样图森破:DL(以及AI社区)的方针是推进智能体系的科学和工程前进,而不是成为嘴炮王者。

深度学习没有界说“是什么”,而是“怎么样做”

在各方互怼之外,Keras创造者Fran?ois Chollet也另开新帖,对“什么是深度学习”宣布了观念。

他以为,到现在,深度学习的界说对他来说过于“严厉”。而且和以下状况是相反的:

⑴ 非表征性学习(如SIFT、symbolic AI等人工特征工程);

⑵ “浅层学习(shadowlearning)”,其间只要一个特征提取层。

此外,它没有规则一个特定的学习机制(如反向传达)或一个特定的用例(如监督学习或强化学习),也不需求端到端的联合学习。

现在的界说描绘的是咱们该怎么样做深度学习,而不是它是什么

而现在的深度学习的界说,仅仅给出了一个比较明晰鸿沟:哪些是深度学习,哪些不是。例如:

DNN是深度学习,而遗传编程、快速排序和支撑向量机就不归于深度学习。

单个的密布层(dense layer)不是深度学习,而密布仓库(dense stack)是深度学习。

K-means不是深度学习,而堆叠K-means特征提取器是深度学习。

一般由人类工程师编写的程序不是DL,参数化这样的程序来主动学习一些常量依然不是DL。

需求用一连串的特征提取器来进行表征学习。

Fran?oisChollet以为,深度学习模型只代表了很小很小的程序空间

原本Chollet并未参加论争,谁知道仍是被拉下了水。

有功德网友Ben Kamphaus在马库斯的推文下,当场@了他,还有另一位深度学习巨子、图灵奖得主Bengio,他说:

Bengio、Chollet以及其他人正在对需求处理的问题进行实质性的处理了。

不知道那些愤恨高呼让DL研讨人员去做他们现已做了很多年作业的人,对处理这样的一个问题有什么协助。

马库斯则安然解说说:

我很了解Bengio和Chollet,仅仅期望他们更坦率些。

你误解我的意思了。

关于马库斯的这一说法,Bengio和Chollet都没有给出直接回应。

吃瓜大众一脸懵逼

局面上,感觉大半个AI学术圈都下场争鸣了。如此盛景,吃瓜大众不免有些懵逼。

有人问:这样的一个问题这么扎手的吗?

当然,还有一脸懵逼的。

那么,你是怎么看的呢?

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!